看完美国花1亿打造的超级AI之后,在座不少人怕是要失业了。。
用知识和观点Debugtheworld!
早几年前AI技术还处于理论阶段的时候,差评君也和大家一样,对AI技术充满了各种美好的幻想。
“改善生活、改变世界、制霸全宇宙,人类要从站起来变成强起来!”
网上搜到五年前的AI海报▼
不过到现在要是再提AI的话,恐怕大家只能想到那些“抱歉,我听不懂,你能不能换个说法”的人工智障了。
“你这个人类又在说些什么批话?”▼
然而上周,科技圈子又重新因为AI技术沸腾了——因为美国研究组织“OpenAI”做成了一款被称为能取代人类的AI引擎。
在看完这款名叫“GPT-3”的语义AI引擎演示之后,差评君的第一反应是,我该不是把书读到狗身上了吧真正可以辅佐人类的AI终于来了!
稍微熟悉点科技的差友可能都听说过大名鼎鼎的“图灵测试”,也就是通过一连串的问答来看AI是不是会露馅。
然而在人与GPT-3的问答中,假如不是我说,大家可能会以为对面坐着一个真实的小孩。回答略显稚嫩,但丝毫感觉不到以往AI助手们的那股制杖气息。
不过有小伙伴们可能要说了,这些问题也还好啊,我看之前你们介绍的那个谷歌助理虽然偶尔会犯制杖,但好像也能做个八九不离十。
那接下来我们看点儿有难度的,能自己读题做题的AI见过吗?
给GPT-3一篇高中英语阅读题,GPT-3轻轻松松就能给你把答案写出来。
什么猿辅导,什么作业帮,统统都是DD!
我当年学英语的时候有这种神器,那铁定是不会挂科的!(坏行为,好孩子勿模仿)
要是嫌高中阅读难度不够的话,我们再来个大学水平的试试。
比方说,把一串晦涩难懂法律条款扔给GPT-3,不出五秒就能输出“人话”版本的解释文。
学法律的小伙伴来评鉴一下▼
本硕博连读、头发都学秃掉的法学生们听到之后都哭了。
这还不算完,除了听懂人话、归纳总结之外,GPT-3甚至还能自行创作。
比如给个场景描述,给个开头,GPT-3就能写出个杀生丸和鲁鲁修的中二小短文。
我瞬间就想到了小说代写,一日百更,彻夜不眠。。。
非加粗部分为GPT-3生成▼
如果不满足于短篇的话,还有个老哥拿GPT-3生成了一篇1112词的鸡汤文。
《工作效率低下?也许你该试着停止焦虑》▼
内容有点儿长,差评君就不给大家全文翻译了。
怎么样,这道阅读理解我能拿五分吗?
。。。。。。
总之,这篇AI生成的鸡汤文非但没有露出马脚,还直接冲上了HackerNews(知乎硅谷精英版)的热搜榜首。
看来歪果仁也很吃鸡汤这一套啊。。。
伊森·霍克演讲:《放开手,去创造》▼
伊森霍克最后是哭是笑差评君不太清楚,因为此时我已经陷入了深深的沉思:
要是AI再这么螺旋拐弯牛批下去,我是不是就不用写稿失业了。。。
别说,被这个问题困惑的可能不止我,律政精英、公司财务、程序开发,以及公司的油头UI设计师都在GPT-3的精确打击范围内。。。
比如说有人把GPT-3和表格文件对接到了一起。
而我们只需要说类似“房租3000押一付三”、“老板上星期我打了一万块钱”一类的白话,GPT-3就能自动生成一张非常专业的财务报表。
除了报表,GPT-3还能够只依靠几句话,就帮你撮一个网页出来。
拥有十年工作经验的前端人员,哭了▼
“一个谷歌的Logo,一个搜索框,两个灰色的按钮,一个写‘谷歌搜索’,一个写‘手气不错’。”
“把搜索框再改宽点儿。”
“错啦。两个按钮之间要加一点间距,不要粘在一起。”
用一句话生成出个高仿Ins的界面也不在话下。
甚至可以通过白话描述,直接用专业的SQL语言提取数据库资料。
“拉取25-35岁员工的薪资详情”▼
震惊,程序员一夜之间化身产品经理,竟向电脑提出如此过分要求!
哦我的上帝啊,这哪儿是什么AI啊。这可真是比小说里的小秘书、金手指、随身老爷爷还要神奇啊!
先说明一下,以上这些神奇功能都是差评君从拿到了GPT-3抢鲜体验资格的研究人员那看到的例子。
虽然差评君也申请的GPT-3的体验资格,不过目前还在排队等待审核。
等后续差评君搞到了资格,我们再来好好看看我以后是不是可以拿它代笔了GPT-3还能做些什么。
然而光是从这些演示上看,我们已经可以发现这个GPT-3实在是强悍的不太像个AI了。
所以,什么事AI都能干了,大家是不是混吃等死就好了?以后更不用去上学了?
当然不是这样的。
虽然差评君看到有些小伙伴在介绍GPT-3的时候用了类似这样的说法(顺便渲染了一波AI威胁论),但是实际上,这种猜测难以成立。
因为从本质上来看,GPT-3属于AI理论中的“反应机”(ReactMachine),距离替代人类还远得很。
现在大家通常把人工智分成四个层级:反应机(第一层)、有限记忆(第二层)、具有心智(第三层)、自我意识(第四层)。
我们现实中最常见的AI都位于第一层的反应机。比如我们常用的小爱同学、小度小度,以及这次的GPT-3。(GPT-3里的PT,实际代表的就是预先训练“Pre-Training”)
它们通过“喂养”人工预先收集的大量样本进行学习训练,让AI对某件事情有了认知。之后再根据已有的样本组织反馈逻辑。
这样的AI没有自我成长的能力,只能根据已学习的信息进行机械化的反应。
比如说,给AI灌输了一堆猫猫的侧面照片,AI下一次再看到一张新的猫猫侧面照时,大概率就能认出来这是一只猫了。
但要是我这时候给AI一张猫猫的正面照,它就很可能把猫猫认成狗。
说白了,反应机做的事情就是照猫画猫。但凡有哪只新猫长得和以前见过的差太多,就只能抓虾了。
但可能有些小伙伴得说了,我们看前面GPT-3好像什么都能做,瞬间胜任了无数职业,怎么还会是把猫当成狗的反应机?
差评君,你这说法行不通啊。
非也,就像我前面提到的,反应机的原理是所谓的“照猫画猫”。
那只要我们想办法把全天下所有的猫给它看一遍,它不就不会翻车了嘛!
这正是GPT-3干的事。其实在它之前还有GPT-2,当时研究人员使用了100多亿个参数训练它,得出的结果已经让它站在世界顶尖AI的梯队里了。
而这一次他们在训练GPT-3的时候,直接把训练参数增加了接近20多倍,达到了1750亿个参数,素材达到了45TB!
根据大家的测试结果看,除非你编一些根本不存在的问题给他,不然GPT-3的翻车概率几乎不存在。。。
问:你怎么波哥个魔哥?
答:你得用波哥来波哥个魔哥。
问:引腰里有多少树?
答:引腰里有三棵树。
问:你知道我问的都是个些什么嘛?
答:嗯,我知道。
为了能够让AI跑的动1750亿个参数,赞助商微软直接给OpenAI划拨了一台世界排名前五的超级计算机。
据说,光是里面装载的NVIDIA显卡和AI运算卡就接近上亿人民币。
史无前例的聪明AI,果然也得用史无前例的真金白银砸出来。
不过饶是如此,哪怕GPT-3再聪明,它也只能糅合别人的创造,书写的别人的观点。
脱离了训练使用的样本库,它便无法再输出创意,更没法自我学习。
所以差评君觉得,GPT-3(以及之后的AI)能像现在这样帮助人们高效输出一些解决方案,从某些繁杂琐碎的工作中解脱出来。
但是它们永远无法替代人的思想。
Andthat'swhatmakesushuman。
图片、参考资料
开源中国,“万物就只是5万亿个参数”,AI模型GPT-3让人怀疑人生
新智元,GPT-3真是人工智能「核武器」吗?花1200万美元训练却没能通过图灵测试