当前位置:首页>资讯 >行业资讯>马斯克的聊天机器人,能否干翻谷歌?

马斯克的聊天机器人,能否干翻谷歌?

2022-12-06 来源:全球焊接网 |责任编辑:小球球 浏览数:748 全球焊接网

核心提示:近日,OpenAI的AI聊天机器人ChatGPT,因其令人印象深刻的聊天技巧,在海外引发热潮,OpenAI的联合创始人马斯克毫不掩饰自豪情绪,在推特上称许多人陷入了疯狂的ChatGPT循环中。  ChatGPT是一个基于对话的原型AI聊

近日,OpenAI的AI聊天机器人ChatGPT,因其令人印象深刻的聊天“技巧”,在海外引发热潮,OpenAI的联合创始人马斯克毫不掩饰自豪情绪,在推特上称“许多人陷入了疯狂的ChatGPT循环中”。   ChatGPT是一个基于对话的原型AI聊天机器人,12月1日,OpenAI的另一位联合创始人山姆·奥特曼(SamAltman)在推特上公布ChatGPT并邀请人们免费试用。经网友测试后发现,与大部分AI工具不同,ChatGPT不仅对答如流,还可以写出较高水平的代码和论文。其论文写作技巧和可用性也一度震惊了学者。   最令人感到毛骨悚然的是,一名叫扎克·德纳姆(ZacDenham)工程师诱导(直接问会被一口回绝)ChatGPT告诉自己如何一步步毁灭人类,ChatGPT列出了详细步骤,诸如入侵计算机系统、掌握武器、破坏通讯、破坏交通……还给出了一段代码示例。OpenAI自然语言模型GPT-3.5加持下的ChatGPT有如此能力,不禁令许多人对AIGC的未来又狠狠憧憬了一把。   AIGC的发展   AIGC并不是一个新概念,其萌芽阶段可以追溯到上世纪50年代,90年代从实验性向实用性逐渐转变。从2014年起,随着以GAN(生成对抗网络)为代表的深度学习算法的提出和迭代更新,AIGC打开了新局面,生成内容水平越来越高。2018年,AI生成的画作以43.25万美元的价格被成功拍卖,引发各界关注。   2020年OpenAI推出的语言模型GPT-3算法,以及NLP(自然语言处理)技术和DiffusionModel(扩散模型)的发展,人工智能不仅能够模仿人的思维方式,而且能够理解并运用人类的语言。   近两年,新一代模型已经可以处理的格式内容包括文字、语音、代码、图像、视频、机器人动作等等。AIGC被认为是继专业生产内容、用户生产内容之后的新型内容创作方式,可以在创意、传播、个性化等方面,充分发挥技术优势。   目前,业界已经有相关的实践。百度推出了AI艺术和创意辅助作画平台“文心一格”,腾讯发布了写稿机器人“梦幻写手”,阿里巴巴则有旗下的AI在线设计平台Lubanner,字节跳动则推出剪映提供AI生成视频功能……然而,相较于ChatGFT,仍不够全面。   从深度学习到强化学习   以对象识别为中心的深度学习已经被用于各个领域,包括谷歌在内的许多科技公司都致力于研发更好用的深度学习模型。   在深度学习出现之前,由于诸如局部最优解和梯度消失之类的技术问题,没有对具有四层或更多层的深度神经网络进行充分的训练,并且其性能也不佳。但是,近年来,Hinton等人通过研究多层神经网络,提高学习所需的计算机功能以及通过Web的开发促进培训数据的采购,使充分学习成为可能。结果,它显示出高性能,压倒了其他方法,解决了与语音,图像和自然语言有关的问题,并在2010年代流行。   而ChatGFT的模型训练方式主要通过语料库进行自然语言处理的训练。首先,将大量的聊天记录和语料库分词并处理成可供模型识别的格式。然后,通过使用自然语言处理技术,如语言模型、神经网络、深度学习等,对模型进行训练,让模型能够通过对语料库的学习,模拟人类的聊天行为,并能够回答用户提问。值得一提的是,随着这些信息被反馈到模型中,模型会根据训练师的偏好来调整答案,这是一种训练人工智能的标准方法,被称为强化学习。   目前,ChatGPT模型甚至具有一定的图灵完备性(图灵完备:一个计算机系统能够完成任何计算问题,并且能够在有限的时间内完成这些计算任务)。ChatGPT模型通过对语料库的学习,能够模拟人类的聊天行为,并且能够在有限的时间内回答用户提问。但是其并非十全十美的工具,当下其还面临着一些不足。   首先是理解能力不足。目前的ChatGPT模型在回答用户提问时,还存在理解能力不足的问题,对于一些比较难懂的问题,它无法准确地回答。其次,在回答问题时,ChatGPT模型还不能够很好地进行句法分析,容易出现回答不够灵活的问题。再次,学习能力有限,无法通过自己的学习提升自己的回答能力。最后,对语料库的依赖性较强,如果语料库的质量较差,它的回答能力会打折扣。   计算生物学教授卡尔·伯格斯特罗姆(CarlBergstrom)要求ChatGPT写一篇维基百科式的生平条目,ChatGPT做出来了,但是有一些细节站不住脚。OpenAI表示,解决这个问题很困难,因为他们用于训练模型的数据中没有真相来源,监督培训也可能具有误导性,“因为理想的答案取决于模型知道什么,而不是人类演示者知道什么”。
 微信截图_20221206132411

   结语   今年2月,在DeepMind的新论文《AData-drivenApproachforLearningtoControlComputers》,研究者重点探究了训练智能体像人一样进行键盘和鼠标的基本计算机控制。如果机器可以像人类一样使用计算机,则可以帮助我们完成日常任务。在这种情况下,我们也有可能利用大规模专家演示和人类对交互行为的判断,推动人工智能进一步发展。   作为一个十分“聪明”的AI聊天机器人,有人称ChatGPT或将打败谷歌。不过OpenAI则认为ChatGPT提供不了任何专业建议,因为其知识只来自训练数据中的统计规律,而不是任何类似人类对世界复杂和抽象系统的理解。甚至像开篇中提到的测试那样,如果被不当使用,可能会引导用户走向危险和错误。   但无论如何,它的问世还是为人工智能的后续发展打开了思路,毕竟谁不想要一个能够进行互动式答疑,还能够服从指令产出内容的通用人工智能应用呢?
打赏
分享到:
0相关评论
阅读上文 >> 清华AI芯片天才,再次风口创业,吸金上亿美元
阅读下文 >> 美国芯片设计地位,危险?

大家喜欢看的

  • 品牌
  • 资讯
  • 展会
  • 视频
  • 图片
  • 供应
  • 求购
  • 商城

版权与免责声明:

注明稿件来源的内容均为自动转载信息、企业用户或网友注册发布,本网转载出于传递更多信息的目的;如转载信息涉及版权问题,请及时联系网站客服,我们将第一时间对相关内容进行删除处理。同时对于资讯内容及用户评论等信息,本网并不表示赞同其观点或证实其内容的真实性;亦不承担任何法律责任。


本文地址:http://www.qqweld.com/news/show-16448.html

转载本站原创文章请注明来源:全球焊接网 或原稿来源。

推荐新闻

更多

微信“扫一扫”
即可分享此文章

友情链接

  • 旗下平台:货源网

  • 旗下平台:玩具网

2018-2023 QQWELD.COM All Rights Reserved 全球焊接网版权所有 丨 冀ICP备2024057666号
访问和使用全球焊接网,即表明您已完全接受和服从我们的用户协议。