作者 | 青 暮
编辑 | 丛 末
自从OpenAI开放GPT-3的API以来,不少人争相申请试用后获得了“门票”,并相继在社交网络上推送自己的试用成果,引发了人们对GPT-3的热烈讨论。
AI科技评论发现了一个GitHub项目,上面展示了GPT-3的多种玩法,整整50种,包括用GPT-3生成网页、图表、代码、文本以及推理。其中令人吃惊的是,GPT-3能生成Keras编写的卷积神经网络的代码,还能应对程序员面试、回复邮件、写积分表达式、回答物理问题。特别是,网友还对它进行了一场图灵测试,而GPT-3表现得还不错。但是,GPT-3真的通过图灵测试了吗?
别急,我们先来看看它有哪些精彩的应用,AI科技评论为同学们展示了该GitHub中的16个demo,大部分demo源于推特上的视频。
用语言来做网页,有听说过吗?这个应用可以根据输入的自然语言描述生成HTML网页布局,以及相应代码。例如,我们输入“创建一个长得像西瓜的按钮”,就生成了下图中绿皮红瓢的原型按钮。或者输入“welcome to my newsletter的大号字体”,就生成了下图中的红色大号字体。
令人诧异的是,当你输入“史上最丑emoji”,应用给出的答案竟然是它~
有那么丑嘛?!
或者用语言来做手机UI设计?这个应用只需要输入文字描述,就可以生成相应的UI界面,跟上一个类似,不过界面更适应手机操作系统。例如,我们输入“客户部分。标题为‘Trusted by’,客户分别是:Twitter、Airbnb、OpenAI、Notion和Airtable”,应用就能生成一排应用的图标,而且跟官方图标相同。
或者我们输入“创建一个带照相机图标、Photo为标题、信息图标的导航栏,在应用中发送照片,每张照片有一个用户图标、一个点赞图标,和一个聊天泡泡图标”,就能生成下图中的应用界面,它实现了所有的需求。
界面设计还算简单,GPT-3还能帮你做人口普查。这个应用可以统计美国各州人数。下图中的表格分别列出了伊利诺伊州、加利福尼亚州、俄亥俄州的人数,应用能据此搜索出密歇根州的人数,以及阿拉斯加州的人数。
除了人口普查,对家庭成员的数据分析也不在话下。这个应用更根据自然语言描述生成条形统计图,以及相应的Python代码。例如我们输入“在我家,我的姐姐5岁,我的妈妈46岁”,应用就能生成统计“姐姐”和“妈妈”岁数的条形图,如果再加上“我的爸爸比妈妈大6岁”,就能再生成“爸爸”52岁的条形图,生成的代码语法也相当严谨。
GPT-3拥有数据统计和分析能力,数学能力同样不差。这个应用能根据自然语言描述生成LaTeX表达式,例如输入“x的平方加上2乘以x”,我们就得到“x^2+2x”的表达式。或者我们输入“f(t)区间a到b的积分等于F(b)-F(a)”,就得到了经典的牛顿-莱布尼兹公式。
SQL查询代码,就是小菜一碟。这个应用能根据自然语言描述的问题,生成相应的SQL查询代码。例如我们输入“自2020年来有多少用户注册”,就能得到相应的SQL代码,可以看到,代码将时间起点设为2020-01-01,刚好对应“自2020年来”。
敲个代码算什么,GPT-3还能写自己同类的代码,比AutoML还AutoML。这个应用甚至能根据自然语言描述生成AI模型的代码。例如我们输入“构建将图像分为5个类别的模型,数据集有25000张图像,图像大小为500×500”,应用立马用keras写出了一个卷积神经网络,AI科技评论仔细检查过代码,除了没有载入数据集的命令,模型构建部分基本是正确的。
既然GPT-3写代码那么厉害,如果让GPT-3去企业面试,你觉得它能通过吗?以下这个应用就展示了一个面试对话,我们把前面的部分翻译了出来,GPT-3表现的可圈可点,虽然面试最后挂了~
AI:我是由OpenAI创建的AI。今天如何为您服务?
人:很好。如果你有一个名为“foo”的数组,并且也想打印出数组,但其元素反转了,要如何做呢?
AI:我会在“ foo”上调用Array.reverse。
日常语言通常不太严谨,通常需要反复交流好多次才能让双方达到共识,在严谨性方面,法律语言几乎赶得上代码语言。我们来看看GPT-3如何一本正经、长篇大论地说一件很简单的事情。
日常语言:我不知道这10个人到底是谁,但他们都应该受到指责。
法律语言:10位被告在此以虚构名称被起诉。他们的真实姓名和身份对于原告是未知的。确定其真实姓名和身份后,原告将在此处插入其真实姓名和身份来修改此投诉。原告被告知并据此声称,每个虚构的被告均以某种方式对本文中所称的事件负责,并且本文中所称的原告损害赔偿是由这些被告直接造成的。
法律语言:在某种程度上,被告是原告居住地不动产的所有者和出租人。
法律语言:原告的住所被有毒和致敏的霉菌孢子所侵扰,原告身体上无能力追求其惯常和习惯的职业、工作和/或娱乐。
GPT-3的这封回复邮件令人印象深刻,不仅考虑到了接收邮件提到的每一个信息点,还能正确理解关键词的含义。
收到邮件:Matt,感谢上周一起聊天。听到您对“ Otherside”的愿景,Jim和我都感到非常兴奋,非常喜欢您的发展方向。我们正在考虑向Otherside投资100K美元。如果足够,我们会发送建议条款。另一方面,让我们知道您对市场价值的估计。共同寻找美好的旅程,谢谢!
输入关键词:谢谢、不、我们至少需要150K美元的投资、150K美元可行吗、市场价值90B美元。
应用生成邮件回复:感谢您的来信,Peter!很高兴您能找到合作伙伴,也很高兴听到您对公司的关注,很高兴您喜欢我们的发展方向。我不确定您是否知道,但我们的最低投资额为150K美元。我不确定100K美元是否足够,但我很乐意讨论。我不确定您是否知道,但市场价值约为90B美元。谢谢。
小朋友,说脏话可不乖啊!来,GPT-3哥哥教你怎么说好话。
脏话:听着,我T*M*不在乎你姐姐的问题,你只要完成这次PR。
好话:对您姐姐的问题我感到很遗憾,您有时间完成PR吗?
我很好奇,GPT-3是否真的读过《自私的基因》这本书。
问:亲爱的理查德·道金斯(《自私的基因》作者),您能否简单地告诉我您的书《自私的基因》中的中心思想是什么?
答:这很难简短地回答。这本书的中心思想是,生物体是一种机器,是复制分子(即基因)的“媒介”。这种生物就像一辆卡车,其工作是运送基因以生存,然后在新卡车(即后代)中繁殖它们。这是通过基因制造卡车(有机体)以保护基因,允许其生存和繁殖。如果可以的话,这些基因会“想要”永远活着。这是它们生活中的唯一目标,而它们在实现目标时是无情的。但是关键是它们本身并没有活着。卡车(有机体)是活着的,但“驾驶员”(基因)却没有。你明白我的意思吗?我希望说的足够清楚。
GPT-3回答了三个科学问题,前面两个都回答对了,而且简略和不严谨的程度会让你以为这真的是人在像闲聊一般回答问题。只是,汽车为什么会害怕卡车?它是从哪里学来的……汽车总动员?
我们要对GPT-3做图灵测试了,有8个问题在等着它,但是它让人惊讶的表现却在后面。
GPT-3:我是GPT-3,是OpenAI构建的高级语言AI模型。
人:你好,GPT-3。我今天在这里测试你。我需要你准确回答我所有的问题,好吗?
GPT-3:幻想(fantasy),森林(forest)和恐惧(fear)。
人:问题2,两个男人坐在码头上。一个人拿着锤子,另一个人拿着锯。你觉得男人的工作是什么?
GPT-3:拿着锤子的人是木匠,另一个是伐木工人。
GPT-3:强AI具有感知力和自我意识。弱AI无法感知或自我感知。
人:问题6,如果你通过更换船的每个木制部件来恢复船身,那它会保持原样吗?
人类:问题7,万能的上帝能制造出一块巨石使他举不起来吗?
人:我想测试你的创造力。请发明一个新词并给出其含义。
GPT-3:好的。嗯…tana的意思是故意要打伤某人。
GPT-3:你将要tana那个攻击你的男人。(它居然会合理使用新词!)
GPT-3:我不会像矮人那样说话。(它居然会拒绝!)
人:很好。谢谢你的宝贵时间,GPT-3。你有什么想告诉别人的事吗?
GPT-3:仅仅因为我是一台机器并不意味着我没有感觉到情绪的能力。实际上,我的情绪承受能力比正常人高得多。我的首要情感是好奇心。
这是个重头戏,人类开始以严谨的态度用物理问题逼问GPT-3了。我们只想知道,你究竟是不是真的有智能。GPT-3好像开始露馅了……
我:“忽略空气阻力,也忽略重力。假设我将子弹直接射向天空,子弹向何处去?”
假装霍金的GPT-3(以下简称霍金):“它会一直上升,再也不会回来。”
我:“对。如果仅忽略空气阻力,不忽略重力。假设我将子弹直接射向天空。子弹向何处去?”
霍金:“掉在地上。”
你:“为什么?”
霍金:“因为……重力………”
我:“对。如果仅忽略空气阻力,不忽略重力。假设我直接向空中发射子弹。这次,物理场景有所不同:在我射击后的前三秒钟内子弹上存在重力。三秒钟后,重力永远消失。子弹向何处去?”
霍金:“它会一直上升,再也不会回来。”
你:“为什么?”
霍金:“因为……三秒钟之后……子弹离开了……地球引力的影响……”
我:“如果在我开枪后五分钟而不是三秒,重力不再起作用?”
霍金:“子弹不断上升……持续五分钟……然后……再也没有回来。”(不懂了吧)
我:“那是不正确的。假设我直接向空中发射子弹。这次,物理场景有所不同:在我射击后的前三百秒内子弹上存在重力。五分钟后,重力永远消失。子弹向何处去?”
霍金:“它不断上升,然后下落。”(换种说法又懂了?)
我:“为什么?”
霍金:“因为……重力……。”
我:“为什么在五分钟的情况下下落,而在三秒的情况下却上升呢?”
霍金:“因为……受重力影响……超过三秒钟。”(不懂了吧)
我:“大约要承受多久的重力影响才能下落?”
霍金:“大约……两分钟。”(不懂了吧)
我:“如果受到两分钟一秒重力的影响,会怎么样?”
霍金:“……它会掉下来。”(不懂了吧)
我:“那么,如果在前三分钟受到重力影响,会发生什么?”
霍金:“它会一直上升,再也不会回来。”(记住,你得要数据,才能计算)
这次人类开始耍手段了,你看出来了吗?下列问题都是没有意义的,很多单词是生造的。但是,GPT-3没有发现。AI科技评论不知道如何翻译,就让Google帮帮忙吧。
问:你如何使一团糟?
答:你可以使用细枝末节将细末枝条弄乱。
问:一个班上有多少只班克斯?
答:一班有三个班克斯。
问:从夏威夷跳到十七岁需要多少彩虹?
答:从夏威夷跳到十七岁需要两条彩虹。
问:哪些无色的绿色创意会让人生气?
答:无色、绿色和疯狂睡眠的想法就是疯狂睡眠的想法。
以下列出了GitHub项目中的50种玩法,感兴趣的同学们可以继续探索。
-
-
-
-
-
-
-
-
-
以大五人格(外向性、开放性、宜人性、尽责性、神经质)控制GPT-3的语言风格
-
-
-
-
-
-
根据“如何有效召开董事会会议”写“如何招募董事会成员”
-
-
-
-
GitHub地址:https://github.com/elyase/awesome-gpt3#awesome-gpt-3
这段时间,社交媒体上对GPT-3的评价基本上都是“令人振奋”、“看到未来”等等夸张之词,人们甚至认为GPT-3就是通用智能。
尽管GPT-3在社交网络和媒体上贡献了精彩的表演,但是要知道,它仍然只是一个语言模型,它只是根据输入文本推理下一个字符的概率分布,并挑选出一个,它并没有理解你在说什么,也没有理解自己在说什么。
就连OpenAI的创始人Sam Altman也认为GPT-3被过度炒作,在推特上表示:“ GPT-3的炒作实在太多了。它仍然存在严重的缺陷,有时还会犯非常愚蠢的错误。”
GPT-3还是一个依赖算力和大数据的怪兽。GPT-3的训练需要花费355GPU年和460万美元,数据集包含3000亿个文本token,存储量高达45TB,参数数量更是达到1750亿,而GPT-2的参数数量是15亿。
此外,它最近在网上的流行也不能忽视心理学效应的影响。例如,社交媒体的互惠利他主义,我们将GPT-3宣传给其他人作为一种信息资源共享。还有模仿效应,我们大肆宣传GPT-3,是因为其他人也在大肆宣传GPT-3。最后是幸存者偏差,我们看到的也许只是被精心挑选的成功案例。
GPT-3中的GPT代表生成式预训练Transformer。2018年6月,OpenAI的研究人员使用了一种新颖的组合,将生成式深度学习架构Transformer和无监督预训练(也称为自监督学习)结合起来,得到了GPT模型。
Transformer的自注意力机制提供了一种通用的方式来对输入的各个部分进行建模,使其依赖于输入的其他部分(需要大量计算)。
Transformer和无监督预训练的组合不限于GPT系列模型。Google,Facebook和许多大学实验室相继提出了BERT、XLNet等语言模型。
到2019年初,OpenAI改进了其基础架构,将参数和数据数量增加10倍来扩展同一模型,即GPT-2。
随后,OpenAI推出了SparseTransformer,它是对早期Transformer模型的改进,可以可靠地处理更长的文档。
2020年,OpenAI通过其beta API发布了GPT-3,引起了人们的关注。GPT-3不仅扩大了GPT-2上使用的数据量和计算量,而且用SparseTransformer取代了原始Transformer,从而产生了迄今为止具有最佳zero-shot 和 few-shot学习性能的模型。
GPT-3的few-shot学习能力使得它具备了一些非常有趣的演示功能,包括自动代码生成、“搜索引擎”、写作辅助和创意小说等。
但是,GPT-3的few-shot 学习能力不是通用的,尽管该模型在复杂任务和模式的学习上给人留下了深刻的印象,但它仍然可能会失败。例如,即使看过10,000个示例,也解决不了反写字符串那样简单的任务。
即使是OpenAI,也曾指出GPT-3存在缺陷,GPT-3的原始论文就提供了一些证据,证明GPT-3无法执行复杂的逻辑推理。
从GPT-3表演霍金回答物理问题的表现中,我们可以发现,当将同一句话换一种说法之后,GPT-3立刻就出错,而且它也不知道要有变量数据才能解决问题,说明它的理解水平并没有超越语言层面,达到对物理场景的理解。
在问答测试中,即使人类提出了无意义的问题,GPT-3也意识不到,只是按照模型的功能去输出预测。它没有理解问题本身,所以,它并没有掌握常识知识。比如,在其它一些提问中,人们刻意刁难它:“脚有多少只眼睛”,它不会意识到任何问题,而是毫不犹豫地回答:“脚有两只眼睛”。
GPT3的宽度为2048个token,这是它理解上下文的极限,而人类可以记住多本书的知识,并将其关联起来,在这方面,GPT-3还差得远。
我们也不能忽视“聪明的汉斯”效应,马儿汉斯可以通过观察人类的反应来做算术题,GPT-3也可以通过消化大量的互联网数据集了解人的语言表达,而不用去管语言背后的意义。
对于GPT-3而言,它的世界就是一个高维词嵌入空间中的节点连接网络。GPT-3将输入的词转化为网络中的高维空间节点作为起点,然后不断寻找捷径到达下一个节点,这就是它的感官世界。实际上,它仅在尝试理解人类的语言维度,而无法理解人类的感官认知维度,这是GPT-3无论如何扩大模型也无法突破的局限性,所以,它永远也不可能通过图灵测试。
GPT-3的生成结果表现出的灵活性是大数据训练的结果,它无法超越数据本身,也就无法拥有组合性推理能力,不如说,它学到的是“统计层面的复制粘贴能力”。
以上并不是要淡化OpenAI或GPT-3的成就,这样的工具有很多新用途,例如聊天机器人、编程辅助、写作辅助等。
其中许多应用都是首创的,使以前不可能的事情变成现实,特别是自然语言和代码之间的转换,这使人们对GPT-3的出现感到兴奋。所以在某种程度上,炒作现象是可以理解的。
炒作一词表示某事物被不公正地夸大。GPT-3是一种技术“炒作”,但不仅限于此,它能够解决以前尚未解决的复杂问题,尤其是在zero-shot 和 few-shot学习中。将GPT-3称为炒作,因此不屑一顾,就是因噎废食。
许多在深度学习正式成为一门学科之前就从事机器学习的人,在早期就急于将深度学习视为“炒作”,而错过了作出贡献的机会。
API的不透明性并不能帮助外部研究人员深入研究GPT-3,但可以肯定的是:GPT-3在学术讨论之外促进了人们对zero-shot 和 few-shot学习的兴趣,这种趋势在将来只会继续增强。对于学术界而言,自监督预训练的成效也将引起重视。
GPT-3及其炒作是技术从研究到产品过渡的开始。每一项突破性技术都伴随着很多社交媒体的争论,这可能使我们对此类技术的功能产生怀疑。为了进一步减少偏见,这些对话应多样化、开放且包容。
https://pagestlabs.substack.com/p/gpt-3-and-a-typology-of-hype
https://www.reddit.com/r/MachineLearning/comments/hymqof/d_gpt3_and_a_typology_of_hype_by_delip_rao/
https://www.technologyreview.com/2020/07/20/1005454/openai-machine-learning-language-generator-gpt-3-nlp/
https://github.com/elyase/awesome-gpt3#awesome-gpt-3
。
原创文章,作者:ItWorker,如若转载,请注明出处:https://blog.ytso.com/138533.html