吴恩达点评奥特曼:聪明执着,始终坚守个人方式

蓦然回首
阅读

吴恩达点评奥特曼:聪明执着,始终坚守个人方式

12月25日消息,当OpenAI于2022年末推出其聊天机器人ChatGPT时,市场上尚无其他类似的服务。OpenAI凭借其卓越的技术和数十亿美元的资金,成功吸引了大量关注。作为率先推出突破性产品的人工智能公司,OpenAI迅速赢得了广泛的知名度。

然而,到了2023年年末,众多资金雄厚的科技公司纷纷推出了与ChatGPT相媲美的人工智能服务。今年9月,估值约20亿美元的法国初创公司Mistral发布了一款功能强大的开源大语言模型(LLM)。LLM是支持人工智能聊天机器人的基础技术。仅仅四个月后,埃隆·马斯克(Elon Musk)也推出了一款实用的聊天机器人Grok。本月早些时候,谷歌发布了人们期待已久的Gemini模型的初始版本。

尽管这些工具在性能上仍未超越OpenAI的GPT-4模型,但在很多情况下,它们的表现已经非常接近ChatGPT,并通过争夺用户和商业客户,对ChatGPT构成了一定的威胁。而且,用户可以轻松地在不同的服务之间切换,没有任何限制。

虽然ChatGPT在通用性方面表现出色,但许多用户似乎更倾向于使用更专业的聊天机器人。例如,数据公司Similar Web的估计显示,Character AI这项服务让用户可以与AI版本的视频游戏角色和其他人物互动,已经占据一席之地。

运营研究聊天机器人的Perplexity AI的首席执行官兼联合创始人阿拉温德·斯里尼瓦斯(Aravind Srinivas)表示:“现在的情况与手机的早期时代相似,每个人都在尝试不同的方法。”

Perplexity AI的目标是通过更准确、更及时的回应,将自己与其他聊天机器人区分开来。虽然其他领先的聊天机器人(包括ChatGPT)一直在努力获取准确可靠的实时信息,但Perplexity AI并非完全从头开始开发其大模型,而是在现有模型的基础上进行开发,包括Mistral和Meta的开源模型。

在从微积分到诗歌,开源模型在广泛的主题中表现不一,也并不总是像GPT-4那样始终如一。但普通用户可能不会像研究人员那样注意到这些差异,而且许多人可能根本不关心微积分。

斯里尼瓦斯指出:“用户并不关心你的答案是来自GPT 3.5、Anthropic的Claude还是GPT-4。” 他的产品还允许用户使用ChatGPT的API。“他们关注的是答案是否准确、产品速度是否够快以及是否有正确的功能。这才是他们会提出抱怨的地方。”

OpenAI的优势一直以来都建立在其大语言模型所提供的强大功能之上。这些模型能够吸收海量的在线数据,从而更好地应对各种请求和用例。然而,越来越多的人工智能初创公司正在寻求构建性能相当但规模更小的模型。

人工智能初创公司Imbue的首席执行官兼联合创始人邱侃君(音)表示:“虽然GPT-4的训练过程令人惊叹,但我并不认为这有什么神奇之处。尽管它规模庞大,但我们看到许多证据表明,我们可以用更小、更高效的模型实现类似的性能。” Imbue得到了英伟达的支持,并正在开发自己的基础人工智能模型。

邱侃君还提到,她的公司内部开发了一个工具,可以修复Python(一种流行的编程语言)中的错误,“就像一个玩具一样”。由于这个工具是针对特定任务的,因此该公司无需构建像GPT-4一样强大的模型来支持它。

值得注意的是,在OpenAI上个月的内部动荡中,ChatGPT不再是唯一的人工智能聊天机器人。在短暂罢免其首席执行官并突然使其未来受到质疑之后,包括Cohere、Anthropic和谷歌在内的许多竞争对手都看到了客户兴趣的上升。

教育平台Coursera联合创始人、谷歌大脑联合创始人吴恩达(Andrew Ng)表示:“GPT-4仍然是目前最好的大语言模型,这是毋庸置疑的。但我认为竞争肯定在加剧,开源和其他竞争对手有很好的机会追赶GPT-4。当然,OpenAI也不会满足于现状,他们正在研究GPT-5。”

吴恩达也是Landing AI的首席执行官和斯坦福大学的教授。近年来,他把大部分时间都花在向公众普及人工智能知识上,并抵制人工智能末日论。上个月,Coursera发布了一个关于生成人工智能的在线课程。吴恩达表示该课程打破了该网站上增长最快的课程纪录,第一周就有4.4万人注册。

吴恩达在过去一个月两次接受采访时都强调:“尽管存在这些担忧,但我对行业前景充满热情。我认为现在是每个人都开始了解这些技术的时候了。”

以下是媒体采访吴恩达的对话摘要:

问:你对谷歌Gemini有什么特别的看法?它是否符合你的期望?

吴恩达:我认为谷歌的工程师们取得了很好的进步,尽管他们距离赶上GPT-4还有很长的路要走。其次,我认为谷歌在视频发布方式上犯了一个营销错误。我觉得这是不幸的,因为如果我们忽略营销失误,我们中的大多数人都会为谷歌工程师打造出一款令人印象深刻的大模型而欢呼。

问:你认为OpenAI的内部动荡对整个行业产生了怎样的影响?

吴恩达:目前下定论还为时过早。我感受到的是,OpenAI的失误,包括山姆·奥特曼(Sam Altman)被解雇和随后的团队重组,确实动摇了一些人的信心。我听说许多团队正在确保他们有备选的OpenAI服务方案。然而,也有一些积极的方面。比如,他们确实让拉里·萨默斯(Larry Summers)和布雷特·泰勒(Bret Taylor)加入了董事会。OpenAI正在积极与政府互动,这在一定程度上是有益的。萨默斯是一位具有巨大影响力的人物,而OpenAI将需要聘请大量游说者才能达到他通过几个电话就能产生的影响力。

问:你曾表示有些科技公司在利用“人工智能将导致人类灭绝”的恐慌来推动监管。能否解释一下原因,并举个例子?

吴恩达:我认为,各方都有制造恐慌和炒作的动机。有些科技公司可能不愿与开源模型竞争。还有一些人出于担忧,即使是并不太切实际的担忧,这也为游说者和监管机构创造了有利的条件。在美国和欧洲,这种对人工智能的普遍恐慌,无论是关于灭绝还是其他原因,都在为游说者和监管机构创造制定有偏见的规则的机会。

问:我理解科技公司可能会因为与开源模型竞争而制造恐慌和炒作,以推动监管。但为何你的学术同行,包括杰弗里·辛顿(Geoffrey Hinton)或约书亚·本吉奥(Yoshua Bengio)等人工智能大咖也会担心人工智能带来的生存威胁?他们似乎与这场炒作没有直接关联。

吴恩达:就在几周前,我与辛顿进行了交谈。虽然我承认他的担忧是真实的,但我认为他的观点是错误的。我并不是专门针对辛顿或本吉奥。这与他们作为个体无关。但我认为,对许多人来说,也存在炒作恐慌的动机。

恐惧能吸引人们的注意力。我认为,如果不是因为某些人扮演了煽动恐惧的角色,他们可能不会出现在对话中。而且,坦率地说,我知道有些人利用夸大的恐惧来吸引关注,然后获得可观的演讲费。事实证明,实际上没有什么动机不去炒作恐惧。我们在社交媒体上看到,恐惧和愤怒都被放大了,而对未来总体上积极的看法对媒体来说就不那么有趣了。

问:奥特曼曾经是你的学生,你能和我们分享一些他在斯坦福就读时的经历吗?

吴恩达:奥特曼非常聪明,但他很固执,总是按照自己的方式行事。他加入了我在斯坦福的实验室,利用强化学习来控制机器人。这些已经广为人知了,但实际上,他和我实验室的同学们合作制造了一个蛇形机器人,并让它爬上了台阶。 (小小)

阅读
本文由用户上传,如有侵权请联系删除!

撰写回复
更多知识