大家好,今天小编关注到一个比较有意思的话题,就是关于阿尔法元的问题,于是小编就整理了4个相关介绍阿尔法元的解答,让我们一起看看吧。
21阿尔法air和21阿尔法sv对比?
21阿尔法air与21阿尔法sv,这两款轮子都是达亿瓦旗下的阿尔法系列水滴轮,中高档等级,前者更轻,属于微物水滴轮,适合抛投小饵,钓小鱼比较合适,价钱在2000元左右,后者属于泛用偏微物水滴轮,自身重量比前者要重一些,它主要对向鱼中等体型的鱼或者稍偏小一点的鱼,但主要还是垂钓中等体型的鱼比较舒服。价格在1500元左右。


声明
阿尔法元(AlphaGo Zero)能够完全自主学习并超越人类,会对人类产生威胁吗?
我的观点是:一是AI前进的速度比想象中更快,即便是行业内的人士都被AlphaGo Zero跌破眼镜;二是要正视中国在人工智能学术方面和英美的差距。
一方面,AlphaGo Zero的自主学习带来的技术革新并非适用于所有人工智能领域。围棋是一种对弈游戏,是信息透明,有明确结构,而且可用规则穷举的。对弈之外,AlphaGo Zero的技术可能在其他领域应用,比如新材料开发,新药的化学结构探索等,但这也需要时间验证。而且语音识别、图像识别、自然语音理解、无人驾驶等领域,数据是无法穷举,也很难完全无中生有。AlphaGo Zero的技术可以降低数据需求(比如说WayMo的数据模拟),但是依然需要大量的数据。
另一方面,AlphaGo Zero里面并没有新的巨大的理论突破。它使用的Tabula Rosa learning(白板学习,不用人类知识),是以前的围棋系统Crazy Stone最先使用的。AlphaGo Zero里面最核心使用的技术ResNet,是微软亚洲研究院的孙剑发明的。孙剑现任旷视科技Face++首席科学家。
虽然如此,这篇论文的影响力也是巨大的。AlphaGo Zero 能够完美集成这些技术,本身就具有里程碑意义。DeepMind的这一成果具有指向标意义,证明这个方向的可行性。
在科研工程领域,探索前所未知的方向是困难重重的,一旦有了可行性证明,跟随者的风险就会巨幅下降。我相信从昨天开始,所有做围棋对弈的研究人员都在开始学习或复制AlphaGo Zero。材料、医疗领域的很多研究员也开始探索。
AlphaGo Zero的工程和算法确实非常厉害。但千万不要对此产生误解,认为人工智能是万能的,所有人工智能都可以无需人类经验从零学习,得出人工智能威胁论。AlphaGo Zero证明了AI 在快速发展,也验证了英美的科研能力,让我们看到在有些领域可以不用人类知识、人类数据、人类引导就做出顶级的突破。
但是,AlphaGo Zero只能在单一简单领域应用,更不具有自主思考、设定目标、创意、自我意识。即便聪明如AlphaGo Zero,也是在人类给下目标,做好数字优化而已。

人类制造的工具对人类当然会有威胁,话说我昨天才被水果刀割破一块皮,还好那把刀已经被用钝了,否则后果难料。至于小时候在桌子下钻来钻去,碰到桌子腿,哭得哇哇的,还被大人给顺便揍了两巴掌,委屈得不要不要的,明明是桌子先动的手,喔,动的腿,让我幼小的心灵搞得有好大一块阴影。
好吧,让我们说点正经事,机器或人造物,对人的威胁有两大类,一是科幻类:即创造者被所造的物给摧毁或反被工具所奴役:如经典科幻《弗兰肯斯坦》,作者显然是对医学解剖学深怀恐惧,因此创造出一个科学怪人,并且让他被自己所创造的怪物摧毁。

以及《Matrix》中所描述的智能机器建造的人类乌托邦社会。

顺便说一句,某些人怀疑,我们也许真的生活在某个Matrix之中,整个宇宙都是虚拟出来的。不过,这其实是个相当玄乎的形而上问题。
而当前机器对人的现实威胁,不是战争屠杀,那是另一个话题,而是更现实的与人争抢工作岗位!还记得《千与千寻》中的著名台词吗?白龙告诫千寻在面对汤婆婆的时候,一定坚持要一份工作,因为如果没有工作,就会被汤婆婆变成猪,最后被神奇的客人们吃掉。当然,工作也是有代价的,那代价就是为她工作的人都会被拿掉名字,一旦记不起来,就永远都离开不了她的澡堂了。这个深刻的影射,我就不展开了,总之两害相权取其轻,宁可忘记自己是谁的日夜工作,也不能变成猪被吃掉了。

图示:《千与千寻》大师杰作,工作还是不工作,这是一个问题。
而在西方的工业革命的历史中,曾经涌现出工人砸机器的运动,史称卢德运动。如今定论英国的纺织机启动了第一次工业革命,

图示:机器带来效率的提高,因此导致小手工业者破产。在纺织业工业化的历史进程中,出现反对纺织业工业化的社会运动并不奇怪,毕竟那是一个毫无社会保障,也没有顶层设计的社会,什么下岗再就业工程是没有的,没人知道前路在哪里,或者饭碗在哪里。
除了纺织机之外,工业革命的另一个标志性机器则是蒸汽机带来的蒸汽动力,1872年,一次悲壮的挑战发生了,为了证明人力的价值,John Henry作为工人的代表挑战蒸汽锤,最终力竭而亡,百年后,当地人给John Henry塑像,以纪念他这种知其不可而为之的人类精神。

图示:

图示:John Henry的动画形象,代表着人类的精神。但精神无法与机器的动力对抗,因为本质上这都是化学能转变为机械能,而人受到的限制实在太多了。人类在体能上落后,不会让其他人有太多感触,除了那些靠体能吃饭的职业。


图示:2017年5月27日,柯洁在比赛中落泪:AlphaGo太完美我看不到希望。围棋被看作是人类智能的最后防线,这个简单规则的黑白子游戏中蕴含着的变化数目远远超过可见宇宙中所有质子的数目,而东亚人类在数千年的历史中对这个游戏的探索,积累了丰富的经验。但继alphagolee版本,alphago master版本超越人类职业巅峰棋手,到今日这个完全抛弃人类经验纯自学的alphago zero版本也间接超越人类职业巅峰棋手(因为它能赢alphagolee和alphago master),这代表着什么?可谓仁者见仁,智者见智。虽然,它还不是通用智能算法,但这件事毫无疑问的开启了人工智能的曙光,而zero的意义,是怎么形容都不过分。
就目前而言,机器依然是中性的,科幻小说中对机器的渲染,掩盖了机器背后的人,谁控制机器谁就掌握了力量,而不受约束的力量,会让世界变成什么样呢?所以,【阿尔法元(AlphaGo Zero)能够完全自主学习并超越人类,会对人类产生威胁吗?】,这问题不在于Zero,而在于谁能掌握它。
最后,让我介绍一个人,如果你还愿意从理性的角度考虑得更加长远。1995年9月19日,炸弹客卡西斯基(Ted Kaczynski)在《纽约时报》和《华盛顿邮报》上,发表了《论工业社会及其未来》(Industrial Society and Its Future)的宏文,当然这是和国家暴力机构妥协的结果,只要允许他有机会将观点告知全世界,那他就停止炸弹袭击,FBI妥协了。因为多年来为了抓捕他耗费人力财力无数都以失败告终。

图示:1996年4月3日,卡辛斯基在蒙大拿州被捕,他住在远离人群的荒野之中,自己搭建了一个小木屋,里面堆满了炸弹原料。而源头就在于他那篇文章被他哥哥认出是他的风格和观点,因此大义灭亲向警方举报了他弟弟。
"如果我们允许机器自己做出所有的决策,人类的命运那时就全凭机器发落了。人们也许会反驳,人类决不会愚蠢到把全部权力都交给机器。但我们既不是说人类会有意将权力交给机器,也不是说机器会存心夺权。我们实际上说的是,人类可能会轻易地让自己沦落到一个完全依赖机器的位置,沦落到不能做出任何实际选择,只能接受机器的所有决策的地步。随着社会及其面临的问题变得越来越复杂,而机器变得越来越聪明,人们会让机器替他们做更多的决策。仅仅是因为机器做出的决策会比人的决策带来更好的结果。最后,维持体系运行所必需的决策已变得如此之复杂。以至于人类已无能力明智地进行决策。在这一阶段,机器实质上已处于控制地位。人们已不能把机器关上,因为我们已如此地依赖于机器,关上它们就等于是自杀。" —— by 卡辛斯基
有些人的确可以更客观的看到未来,不是幻想也不是煽情和无端的恐惧,而是以足够的理性和冷静看到未来。在1995年的时候,这段话就像梦话,但在今天,它似乎不是。
卡辛斯基被判终身监禁,如今在牢狱中的他,在得知zero之后,会怎么想呢?而他是魔鬼还是先知,这大概是留给未来的人类子孙来定义的问题了。
至于我本人嘛,我觉得现在是复习迄今最伟大的科幻小说作家艾萨克·阿西莫夫(Isaac Asimov)的系列机器人相关的科幻小说的时候,并重复他老人家早就定好的规则——机器人三定律(Three Laws of Robotics)。
机器人不得伤害人类,或因不作为(袖手旁观)使人类受到伤害;
除非违背第一法则,机器人必须服从人类的命令;
在不违背第一及第二法则下,机器人必须保护自己。
阿西莫夫希望在人工智能的帮助下,最终让人类有能力走向星辰大海,甚至和机器人谈情说爱。
不会,目前的人工智能推理功能强大,但整体而言,离人类智能还远。下围棋和下象棋一样,在封闭规则下,所有走法的可能性是能被穷尽的,现在的算法比深蓝大战世界冠军时期更先进,但棋类游戏的本质没变,不是开放问题,不需要创造性。倒是吴恩达他们试图做聊天机器人尝试参与治愈抑郁症这个更具有挑战。
先看下这次的AlphaGo Zero相较此前的版本有以下5点提升:
1.AlphaGo Zero通过与自己不断挑战来进行提升,不依赖人类数据。此前版本则是通过分析海量棋谱数据进行学习。AlphaGo打败李世石用了3000万盘比赛作为训练数据,而AlphaGo Zero仅用了490万盘比赛数据。经过3天的训练,AlphaGo Zero以100:0的战绩完胜AlphaGo。并且只用了1台机器和4个TPU,而李世石版AlphaGo则用了48个TPU。
2.AlphaGo Zero只使用围棋棋盘上的黑子和白子作为输入,而上一版本的AlphaGo的输入包含了少量人工设计的特征。
3.AlphaGo Zero 不使用“走子演算”,它依赖于高质量的神经网络来评估落子位置。其它围棋程序使用的快速、随机游戏,用来预测哪一方将从当前的棋局中获胜。
4.在训练过程中,AlphaGo Zero每下一步需要思考的时间是0.4秒。相比之前的版本,仅使用了单一的神经网络。
5.AlphaGo Zero采用的是人工神经网络。这种网络可以计算出下一步走棋的可能性,估算出下棋选手赢的概率。随后根据计算,AlphaGo Zero会选择最大概率赢的一步去下。
面对这些提升,曾与AlphaGo有过交战的柯洁表示,“对于AlphaGo的自我进步来讲...人类太多余了”。

可以看出,令大家真正感到恐惧的,是AlphaGo Zero强大的自我学习能力。然而这强大的自我学习能力如何带来实际收益,实现行业应用,并带来商业价值,才是DeepMind团队的最终目标。
其实早在2016年,DeepMind团队也尝试利用AlphaGo的学习能力进行了行业应用的探索。
DeepMind接管了谷歌数据中心的一些控制单元,包括风扇、空调、窗户和服务器等,通过机器学习,帮助谷歌数据中心的冷却系统节约用电40%,并提高了15%的能源使用效率。
目前,DeepMind的部分研发项目已经开始用于能源基础设施管理、医疗系统和洁净水源的改进等方面,公司也已经从中获得收益。
对于AlphaGo Zero的学习能力是否会威胁人类,从目标来看,暂时是不会的。
当然会。
在Nature今天发布的这篇论文中,谷歌DeepMind团队最新的研究成果阿尔法元比阿尔法狗更胜一筹——在没有任何历史棋谱的指引和人类先验知识的情况下,完全靠自己一个人强化学习(reinforcement learning)和参悟, 棋艺增长远超阿法狗,百战百胜,击溃阿法狗100-0。

文章说:
人工智能的一项重要目标,是在没有任何先验知识的前提下,通过完全的自学,在极具挑战的领域,达到超人的境地。
这话听上去很美好,但我觉得很恐怖。
人工智能一旦脱离了人类的经验和控制自由发展,谁知道会发展成什么样子,谁知道它什么时候就已经超越了图灵测试,正如美剧《西部世界》中的那些机器人一样,不知不觉中,已经超越了人类的认知,开始猎杀人类了。
有这种担心的不止我一个,最新一期《纽约客》杂志表达了同样的担忧。

在这期杂志的封面中,机器人喝着咖啡、玩着手机、遛着机器狗,顺带施舍给无家可归的人类一些钱物,恩,一切都颠倒了。
这一切,并非没有可能,这种可能,并非遥遥无期。
所以,相比之下,我更喜欢埃隆·马斯克的脑机接口研究。
是的,就是那个拥有特斯拉和SpaceX的钢铁侠埃隆·马斯克。
在他的新公司Neurallink中,他和一帮生物学家、芯片设计师、外科手术专家们试图通过脑机接口拓展人类的信息交流方式,把人变成人工智能,把人变成超人。
这,或许才是人类的出路。
阿尔法元(AlphaGo Zero)为什么能无师自通?
Alpha Zero是Deepmind继AlphaGo Zero(主要针对围棋推出的算法)之后推出的终极对弈杀器,在经过短短几个小时的训练就相继征服了国际象棋,日本将棋以及中国围棋。
那么Alpha Zero为何会如此强大呢,这其中的关键就在于深度神经网络和蒙特卡洛搜索树的结合。其中深度神经网络的输入当前以及历史的棋盘布局,输出下一步的下棋位置的概率分布以及胜率。蒙特卡洛搜索树则是一种常用的搜索树,通过不断的推演棋盘之后的状态,从而下那些胜率高的位置。在蒙特卡洛搜索的过程中结合了深度神经网络对于当前棋盘的评估,使得蒙特卡洛搜索的质量更好。
整个训练过程就可以归结为两步:
1. 利用蒙特卡洛搜索树和深度神经网络的自我对弈(self-play)得到更好的下棋数据;2. 用这些数据来训练神经网络,以提高其评估的质量。反复的运行上述过程,就可以不断提高Alpha Zero的下棋水平
在这里我们可以将Alpha Zero的训练过程比作人的学习过程。人在开始学习的时候,不知道该怎么下,就可能会胡乱的下棋。但是经过几轮的下棋之后,人就会讲之前的下棋经验累积起来,慢慢的开始了解到什么时候该下哪里以及我是快输了还是赢了。此外人在下棋的过程中,总会是推演之后的下棋状态,从而下的位置更好。然后随着下的盘数增加,人的经验就回越来越丰富,下棋的水平也越来越高。这其中人脑就是深度神经网络,能够存储过去的经验,而结合神经网络的蒙特卡洛搜索就是基于当前的经验和未来的推演来得到更好的棋局,神经网络的训练过程就是总结棋局成为经验。
但是Alpha Zero为什么能在那么短时间内就能去的如此之快的进步。这就在于其中使用了大量的TPU和CPU,使得Alpha Zero能在极短的时间内就能下很多盘棋,大大加快了学习的速度。
Master版的阿尔法狗,怎么说都应该算是人类的学生,只不过青出于蓝而胜于蓝,现在被“纯自学野路子版”的阿尔法元吊打,的确颇有点让人情何以堪的滋味。
要解释为什么阿尔法元(AlphaGo Zero)能无师自通,那答案取决于两个因素:首先是围棋的本质,其次是算法。即围棋这类完全信息博弈并且胜负判断精确且规则明确的问题,在本质上可以不依赖前人的探索,而完全从零开始在足够巧妙的算法和硬件配合下,既能在短时间内到达相当的水平和高度。这依赖的是首先可以进行自对弈,其次能从自对弈中提取分析胜败的相关因素和特征,并投入到下一轮自对弈中去进行检验。
对比一下人类的自学能力所需要的前置条件:首先,得有一个合格的人脑,即一个大约由数百亿神经元组合连接而成的硬件系统,其次得有一个基本的初始输入,包括认字脱盲拥有基础阅读理解能力,这可以类比为人类的算法系统。在这两者配合之下,至少部分人就拥有了不依赖老师,而自己学习新知识甚至开拓新领域的能力。
而AlphaGoZero并非一无所有,它有两大神经网络架构,供它从每一局的自对弈中提取分析胜败的特征算法,即自我反省能力,自我总结能力,并且将这种反省和总结立即投入到下一局的实战中进行校验的能力。
而之所以能只通过490万局自对弈就能胜过从前三千万局的成果,我想这主要是因为算法的改进,尤其是特征提取方面的改进造成的,要知道从前的AlpahGo的一些基础特征,比如虎口之类的认知靠的是外界输入设定的,这说明老版本的特征提取能力不强,当然在能够利用人类经验的情况下,许多棋型特征都可以作为先验知识输入,这样在初期显示出来的水平较高,但在后期则可能受制于这些权重较高的经验而误入歧途。
这就是为何阿尔法元的成功,证明了两件事。其一,围棋是可以完全从零开始进行AI化的游戏,其二,人类经验在一定程度上是有局限的,会限制AI在极高水平时候的提高和成长。但我们还是得看到,阿尔法元 vs Master版本时候,并未到达全胜,总还是给人类经验留下点颜面了。另外,看到阿尔法元的成长史,也颇为有趣,万丈高楼也得有个地基啊。

当人类还在担心会被人工智能夺走在这个世界上的主导权的时候,人工智能已经潇洒地挥挥手,专心发展自己的世界去了,不带走一片云彩……在未来的宇宙中,人类注定只是悲催的苦力?
围棋的下法总计3的361次方,这个数字极其庞大,比整个宇宙原子总和还要多,因此利用暴力穷举法来验证所有走法的可行性显然不切实际。幸运的是人类可以巧妙的方法大大缩小这一数字,下面举两个浅例来简单说明,因为复杂的我也不敢乱说,毕竟对电脑方面不是太懂,首先我们观察棋盘,容易发现它是一个中心的对称的,也就是假设黑子第一手下在右上角星位,白子第一手下在左下角星位,实质上和第一手下在左下角星位,白子第一手下在右上角星位是一样的,只要棋盘顺时针转180度,盘面就完全一样,而在下法里,这算2种下法,这样我们就能省去接近75%的重复图形。然而仅仅减去这么多显然还想去甚远,但我们发现有些棋显然无意义或不能放,比如按照棋规,棋不能放在对方的眼位里,又或者送给别人征子的自杀棋(弃子不算),这些算起来可以排除将近99.999%的无用的计算,但这仍然不够,所以下面就要形成一些定式,即虽然我不知道所有走法的对错,但我知道某些走法一定对,那我开局就往这方面去走,一旦你走错就速败,走对了也只是均势而已,然而我们知道随着棋盘子摆的越来越多,复杂度就急剧下降,所以胜负往往在中盘就已决定了,后期电脑转用穷举法足够应对,翻盘几乎不可能。
找对了模型改进了算法!说明客观规律存在真理,工程领域所累积的科技成果,将使人与人之间的劳动能力差距越来越小,只要人类没有被转基因,“按需生产自主交换”的共产主义社会一定会到来!
假如棋盘是20*20,或者多至100*100,阿尔法元跟人类相比谁的优势更大?
首先说明,目前通行并唯一用于竞赛的围棋棋盘是19路,包括现行几种竞赛规则的规定。也有小棋盘通常最小是9路,用于初学者和少儿学棋。曾经从辽代墓葬中出土了13路的棋盘。如果要扩大棋盘路数,一般认为可以扩大到21路或更大的单数,这样棋盘上才会有对称轴和天元。
近现代19路围棋历经几百年的薪火相传,通过一代又一代天才棋手的学习、传承、创新,其实战、理论、价值判断包括竞赛规则等等才发展到今天这个高度。如果棋盘扩大,很多理论、判断都不对了,那需要多少人、多少年时间去研究?估计没人会知道。实际上也不大有人会去研究不符合现行通用规则的围棋。
而AlphaGo Zero的情况就完全不同。Zero从输入最基本规则、不参考人类棋谱和经验的情况下,仅仅依靠双手互搏、自我学习,三天时间就下了490万局,40天即可碾压之前的版本AlphaGo Master,100:0的优势比Master碾压人类顶尖高手更明显。这个进步速度人类无法做到,一个人假设认真下一盘棋带复盘需要四个小时,一天不吃不喝不休息不厌倦也就下6盘,下100年也就22万盘棋。可是然后呢,又要重新开始?
从这个角度看无论将来有多大的棋盘,人类对于围棋的进步速度永远赶不上AI。科技的发展有加速度,AI作为人脑机能的延伸也是如此。
上世纪末著名围棋活动家应昌期先生曾悬赏百万美元,鼓励围棋计算机程序挑战人类。笔者也曾用过一些围棋程序,总感觉有生之年见不到计算机在围棋上战胜人类,没想到这么快就实现了。
到此,以上就是小编对于阿尔法元的问题就介绍到这了,希望介绍关于阿尔法元的4点解答对大家有用。




还没有评论,来说两句吧...