百度、有道、搜狗、搜搜、Google、Bing、Yahoo等搜索引擎排名
关于我们关于我们
ai传媒炒作的是什么逻辑

一、人工智能的原理是什么

人工智能的原理,简易的形容就是:人工智能=数学计算。
机器的智能程度,取决于“算法”。最初,人们发现用电路的开和关,可以表示1和0。那么很多个电路组织在一起,不同的排列变化,就可以表示很多的事情,比如颜色、形状、字母。再加上逻辑元件(三极管),就形成了“输入(按开关按钮)——计算(电流通过线路)——输出(灯亮了)”这种模式。
想象家里的双控开关。
为了实现更繁琐的计算,最终变成了,“大规模集成电路”——芯片。
电路逻辑层层嵌套,层层封装之后,我们改变电流状态的方法,就变成了“编写程序语言”。程序员就是干这个的。
程序员让电脑怎么执行,它就怎么执行,整个流程都是被程序固定死的。
所以,要让电脑执行某项任务,程序员必须首先完全弄清楚任务的流程。
就拿联控电梯举例:
别小看这电梯,也挺“智能”呢。考虑一下它需要做哪些判断:上下方向、是否满员、高峰时段、停止时间是否足够、单双楼层等等,需要提前想好所有的可能性,否则就要出bug。某种程度上说,是程序员控制了这个世界。可总是这样事必躬亲,程序员太累了,你看他们加班都熬红了眼睛。于是就想:能不能让电脑自己学习,遇到问题自己解决呢?而我们只需要告诉它一套学习方法。大家还记得1997年的时候,IBM用专门设计的计算机,下赢了国际象棋冠军。其实,它的办法很笨——暴力计算,术语叫“穷举”(实际上,为了节省算力,IBM人工替它修剪去了很多不必要的计算,比如那些明显的蠢棋,并针对卡斯帕罗夫的风格做了优化)。计算机把每一步棋的每一种下法全部算清楚,然后对比人类的比赛棋谱,找出最优解。
一句话:大力出奇迹!但是到了围棋这里,没法再这样穷举了。力量再大,终有极限。围棋的可能性走法,远超宇宙中全部原子之和(已知),即使用目前最牛逼的超算,也要算几万年。在量子计算机成熟之前,电子计算机几无可能。
所以,程序员给阿尔法狗多加了一层算法:
A、先计算:哪里需要计算,哪里需要忽略。
B、然后,有针对性地计算。
——本质上,还是计算。哪有什么“感知”!
在A步,它该如何判断“哪里需要计算”呢?
这就是“人工智能”的核心问题了:“学习”的过程。
仔细想一下,人类是怎样学习的?
人类的所有认知,都来源于对观察到的现象进行总结,并根据总结的规律,预测未来。
当你见过一只四条腿、短毛、个子中等、嘴巴长、汪汪叫的动物,名之为狗,你就会把以后见到的所有类似物体,归为狗类。
不过,机器的学习方式,和人类有着质的不同:
人通过观察少数特征,就能推及多数未知。举一隅而反三隅。
机器必须观察好多好多条狗,才能知道跑来的这条,是不是狗。
这么笨的机器,能指望它来统治人类吗。
它就是仗着算力蛮干而已!力气活。
具体来讲,它“学习”的算法,术语叫“神经网络”(比较唬人)。
(特征提取器,总结对象的特征,然后把特征放进一个池子里整合,全连接神经网络输出最终结论)它需要两个前提条件:

1、吃进大量的数据来试错,逐渐调整自己的准确度;

2、神经网络层数越多,计算越准确(有极限),需要的算力也越大。
所以,神经网络这种方法,虽然多年前就有了(那时还叫做“感知机”)。但是受限于数据量和计算力,没有发展起来。
神经网络听起来比感知机不知道高端到哪里去了!这再次告诉我们起一个好听的名字对于研(zhuang)究(bi)有多重要!
现在,这两个条件都已具备——大数据和云计算。谁拥有数据,谁才有可能做AI。
目前AI常见的应用领域:
图像识别(安防识别、指纹、美颜、图片搜索、医疗图像诊断),用的是“卷积神经网络(CNN)”,主要提取空间维度的特征,来识别图像。
自然语言处理(人机对话、翻译),用的是”循环神经网络(RNN)“,主要提取时间维度的特征。因为说话是有前后顺序的,单词出现的时间决定了语义。
神经网络算法的设计水平,决定了它对现实的刻画能力。顶级大牛吴恩达就曾经设计过高达100多层的卷积层(层数过多容易出现过拟合问题)。
当我们深入理解了计算的涵义:有明确的数学规律。那么,
这个世界是是有量子(随机)特征的,就决定了计算机的理论局限性。——事实上,计算机连真正的随机数都产生不了。
——机器仍然是笨笨的。
更多神佑深度的人工智能知识,想要了解,可以私信询问。

二、2021-09-18《AI30人工智能落地的商业逻辑》读后感

全书整体结构

本书中我得到的收获:

1、了解了一些基本的概念和基本的理念,如人工智能的发展历程:

再比如:AI的三个阶段AI分为三类:狭窄人工智能(Artificial Narrow Intelligence)、普遍人工智能(Artificial

General Intelligence)和超级人工智能(ArtificialSuper

Intelligence)。

2、数据和AI之间的关系:数据是AI的基础

当今社会已经不仅仅是AI的发展需要数据作为基础,越来越多的行业、领域都对数据给予了足够高度的重视,当然“数据”也受得起大家给予的重视——它确实能创造价值。但哪些数据,通过怎样的形式产生怎样的价值,是人们要面对的课题。

数据战略应该关注数据的整体生命周期,思考企业的数据从哪里来,有哪些作用,未来到哪里去。企业要更加关注自有数据的价值创新,建设自有数据的网络效应,将其货币化。并且,企业还要一手抓进攻性数据(商业分析),另一手抓防御性数据(安全性),双管齐下,避免数据泄漏。

成功的数据战略应该包含数据资产、数据治理、数据价值创造、人才储备等在内的总体计划,为未来的业务增长奠定基础,提供持续不断的数据动力。

3、涉及AI的讨论,必然会涉及的伦理讨论

欧盟提出了四条核心的伦理原则:第一,人类自治原则,保障人类在使用人工智能时充分、有效的自决权利,确保人类对人工智能系统工作程序的监管;第二,避免伤害原则,确保人工智能系统及使用环境的安全可靠,确保人工智能技术的稳健性,防止恶意利用;第三,公平原则,要求合理分配收益与成本,确保个人与团体不受偏见、歧视和侮辱;第四,可解释性原则,意味着程序透明,公开相关系统的功能与目的。

基于这四大原则,细化并扩展出实现可信人工智能的七条具体要求。未来基于这些原则和要求,各个场景会有配套的法律跟进,进而将人工智能发展纳入可控的轨道。欧盟的经验非常值得借鉴,共同的伦理准则是未来人工智能产业全球协作的基础,甚至关系到政治军事的合作和信任。

就人工智能活动的具体执行方面,艾伦·图灵研究所针对人工智能研发提出“FAST”原则:即公平(fairness)、责任(accountability)、持续(sustainability)和透明(transparency)。

公平原则,指的是无性别、种族、群体歧视,在数据收集、数据分析、结果呈现上必须考虑无歧视,实现公平。公平原则既要从国家、民族等宏观处考虑,也应在产品与行业的微观处有所体现。责任原则,指的是我们正在进入分布式智能时代,要了解哪些任务和决策可以委托给人工智能,以及如何区分责任。1979年,德国学者汉斯·伦克(Hans

Lenk)第一次提出“责任伦理学”的概念,深化了科技伦理问题的探讨。除了自动驾驶领域的责任归属,诸如伴侣机器人、餐厅机器人、医疗机器人等各类机器人若发生意外,也应该有相应的责任归属。持续原则,指的是人工智能的产品要稳健、安全、可控制,系统在设计时要考虑到产品对人和社会的影响,使用过程可控。透明原则,指的是过程、原因、结果可解释、可追踪,既有利于查询追溯,也能方便迭代与修订。

最后,我喜欢作者直截了当地谈到“后续我们应该如何”,我更喜

Copyright2023流翼科技