距离实现强AI还有很长的路要走。
所谓的强 AI 是一个科学术语,用来定义能够完全取代人类的人工智能,这种智能经常出现在机器打败人类的好莱坞电影中。在 2020 年,我们朝着强 AI 迈出了坚实的一步,但仍然没有实现强 AI。
我们都知道 AI 主要有两种类型:强AI和弱 AI。强 AI 经常出现在好莱坞电影中,其中的智能机器就像人类一样,无论是简单的还是复杂的任务都可以处理:从聊天、跳舞,甚至到征服宇宙。
弱 AI 既指机器学习,也指我们日常生活背后使用的大多数智能工具(搜索引擎、聊天机器人、道路导航或网络安全解决方案)的算法。
到目前为止,强人工智能的实现日期还不能确定,因为这是一项相当复杂的工作,而且我们并不确定是否能够完成它。
2020 年实现了超级算法?
以下是 2020 年最新研发的一种算法能够做的一些很酷的事情:
作一名(初级)前端程序员
它可以基于自然语言的描述构建HTML布局,甚至是简单的 web 应用程序。可以使用Figma创建一个完整的网站,并在React中生成代码,而这个过程中你只需要用文字描述你想做的事情。
作为(初级)系统管理员或IT经理
对于这个 AI 来说,它可以处理 SQL编程和Python编程,也可以完成系统管理的工作。
不过你也不能对它期望太高,因为它也有可能不能很好的完成上面的任务。你在使用之前,最好先测试一下,即便一开始不能达到你的要求,通过训练,最终它也能够不断完善自己的能力。
3.它可能会取代(初级)数据分析师
你可以用自然语言问它问题,它能够通过维基百科(Wikipedia)的链接给你答案。虽然谷歌也能做到这点,但相比而言谷歌设计不了网站。诚然回答问题可能不是什么让人兴奋的事情,但如果它可以自动向表中添加信息呢?并且在这个过程中你不需要告诉它填什么,它可以完全自己进行判断。
你输入数据后,还可以要求它绘制图表并在需要时进行更新。
还有,假如你想不起某部电影的名字了,你可以通过简单地描述电影的基本情节来提问获得答案。
作为你的律师、秘书,甚至是五大人格体系中任何一种人
它具有翻译的能力,可以作为你的律师,为你解释法律条款。它还可以根据提纲要点,帮你写出措辞更加礼貌谦逊的信件。
如果你想学习些知识却没有足够的时间,AI 算法可以帮你总结概括主要知识点,甚至可以用五大人格体系中任何一种风格来行文写书。
不过当你选择它做你的律师时要仔细考虑清楚,因为在这方面省钱可能会引发灾难性的后果甚至付出长期的法律代价。
可以作为卫报的专栏作家
通过这个链接,你可以看到AI写的一篇文章,它曾经被发表在英国一家主流报纸上。所以你可以想象下,对于 AI 来讲,编写谷歌广告和其他营销材料应该也不是问题。另外,你知道怎么招募到合格的董事会成员吗?假如不知道的话,可以寻求AI的帮助。
它可以教会你一些东西,并做出结论
例如,它可以告诉你什么是编程,并且给你展示编程的结果(AI生成演示文稿)。可以为不同学科背景的学生提供测试。人工智能还可以为医生提供一些建议,并对物理问题或数学进行详细阐述。这两者都涉及到推理,即使对部分人类来说也很难实现。用一些问题故意玩弄AI 也是可以做到的,不过一旦 AI 知道并非所有问题都需要回答,它就学会应付这些问题了。AI下棋下得也很好。
可能有人会说,这里很多功能是通过其它不同算法实现的。但是不要忘了,以上所有都是基于一种模型构建的,使用的是同一种算法。所以显而易见,通过这种算法可以做很多事情,即便是画画这种功能。
所以,这就是所谓的无所不能的强 AI 了么? 答案是否定的。
GPT-3 简介及其工作原理
这种算法就是由Open AI创建的 GPT-3(Generative Pre-trained Transformer 3)。有些人甚至不认为它属于人工智能,因为它只是一种语言模型。一个庞大的语言模型: 即便是用地球上最快的 GPU(图形处理器),也需要 355 年才能完成训练,并且将花费 460 万美元。
语言模型又是什么呢?它是在给定的上下文基础上,预测下一个标记(例如一个单词)的一类算法。例如,我们都能预测这句话中的下一个词:“To be, or not To be, that is the…”是不是很简单?还有很多类似这样的模型。GPT-3 的主要区别就在于它的庞大:它基于 570 Gb 的互联网文本训练,结果模型的大小就有 700Gb。该模型有 1750 亿个参数(相比之下,微软(Microsoft)的第二大模型“只有”170 亿个参数)。上下文边界有 2048 个标记。这意味着它预测下一个单词,需要考虑到 2048 个之前的单词。
语言模型已经存在许多年了,而且这种方法相当简单。正像上面说的那样,让 GPT-3 与众不同的是它的大小。
效果确实也很明显,因为规模的增长似乎导致了机器学习的范式转变。
引用 Gwern Branwen(他是一个作家和独立研究员)的一段描述:“ GPT-3 神经网络在功率和数据集方面是一个非常大的模型,因此它表现出了不同效果的行为: 你不能将它应用到训练数据集中的固定任务集,如果你想处理一个新任务,需要在额外数据上重新训练(因为你必须重新训练 GPT-2);相反,你与它交互,用自然语言描述、请求和例子来表达任何任务,调整标注,直到它“理解”并且基于它在预训练中学到的高级抽象来学习新任务。这是使用 DL 模型的一种非常独特的方式,我们可以把它看作一种新的编程方式,其中提示符现在是一个“程序”,该程序为 GPT-3 编程以便它继续做新的事情。“提示编程”与常规编程不同,它就像训练一只很智能的猫学习一门新的技巧:你可以对它提问,它有时会完美地完成这个任务, 如果让它翻过身去舔它的屁股,就会让你失望了——你知道问题不在于它不能,而在于它不会。”
GPT 是 Transformer-based 算法有效性的证据,这组 ML 算法构成了机器学习的一个重要里程碑,它正在迅速取代以前的算法,尤其是递归神经网络。
在最新的一篇研究报告《人工智能新兴技术及趋势雷达》中:Gartner 指出了基于 transformer-based 的语言模型的重要性,因为它们“提供了高级文本分析和所有相关应用的实质性改进,如聊天交互,智能虚拟助手和自动文本生成”。
AI 最新基于 ANN 的第一个里程碑是引入了单词的上下文表述:Tomáš Mikolov 和 Yoshua Bengio 创建的 word2vec 。这种无监督方法从纯文本中学习单词的语义向量,为许多机器学习算法提供了基础。
第二个重大突破是 transformer-based 算法,它是在 GPT-X、BERT、BART 之后才出现的。
为什么还是实现不了强人工智能?
人工智能顾名思义,是用来模拟自然智能的。当然,没有必要模仿人类的生理机能(神经网络中的“神经元”并不是人类神经元的模型,它只是一个比喻),但它需要具有能够类似于自然(人类)智能的工作方式。
GPT-3 实际上只是记忆了大量的文本数据,但它不理解它,不能思考,不能从中推断得出知识。当然,它比简单的文本数据库复杂得多。它通过使用单词的上下文表示(“嵌入”)来“理解”单词的意思,并且不需要准确地上下文来预测下一个单词。要想猜出接下来要说什么,它只需要在相似的语境中使用相似的词。
在实践中,虽然它已经很逼真了,但它缺乏真正的智能能力。例如,在一些文本生成测试中,它生成了一篇出色的连贯文本,但它并不能保证事实的准确性,有时还会重复自己。它可以生成漂亮的抽象文章,但需要做大量的人工核查,以确保文本准确性。
ImmuniWeb 如何应用人工智能?
在 ImmuniWeb,我们关注人工智能和机器学习方面最新和最具创新性的研究成果,并对新算法进行大量实验。通过从漏洞测试人员和安全分析师那里学习工作模式,我们确保现有的和新部署的算法能够解决实际问题。
我们使用一系列较小的算法来训练不同的相互关联的 ML 模型,并逐步获取我们网络安全专家的知识和经验,用于复杂任务的智能自动化:从 fuzzing 和 WAF bypass 到暗网的数据分析和风险评分。
我们主要使用深度学习和经典机器学习算法来自动化中等和高度复杂的任务和流程,人类只负责去做最复杂的任务,通常这些任务都需要人类的智慧和认知能力。总而言之,我们将人与机器的完美结合带给我们的客户,并提供最佳的性价比与卓越的技术方案。
英文原文:
Nohttps://www.immuniweb.com/blog/strong-artificial-intelligence-2020.html
评论