当前位置:   article > 正文

语言生成类人工智能如何改变科学

语言类ai

4336b9c651f8410fd5f06090bb4e5ff6.png

来源:ScienceAI

编辑 :萝卜皮

d6a0e17b41f3fb7e3364f3015465d72a.png

密歇根大学安娜堡分校新兴技术治理专家 Shbita Parthasarathy 表示,从大量文本中生成流利语言的机器学习算法可能会改变科学研究的方式,但不一定会变得更好。

在2022 年 4 月 27 日发布的一份报告中,Parthasarathy 团队试图预测被称为大型语言模型(LLM)的新兴人工智能(AI)技术的社会影响。

报告链接:https://stpp.fordschool.umich.edu/research-projects/whats-in-the-chatterbox

它们可以产生令人惊讶且信服的论文,在语言之间进行翻译,回答问题,甚至生成代码。构建它们的公司——包括谷歌、Facebook 和微软——旨在将它们用于聊天机器人和搜索引擎,并总结文档。(至少有一家位于加利福尼亚州旧金山的公司 Ought 正在研究 LLMs;它正在构建一个名为「Elicit」的工具来使用科学文献回答问题。)

LLMs 已经存在争议。他们有时会在他们接受培训的数百万或数十亿份文件中重复错误或有问题的刻板印象。研究人员担心,与人类写作无法区分的明显权威的计算机生成语言流可能会导致不信任和混乱。

Parthasarathy 说,虽然 LLM 可以加强理解复杂研究的努力,但它们也可以加深公众对科学的怀疑。她向媒体讲述了这份报告。

LLMs 如何对科学产生影响?

Parthasarathy 最初认为 LLM 可以产生民主化和授权的影响。在科学方面,它们可以使人们能够快速从信息中提取见解:例如,通过查询疾病症状或生成技术主题摘要。

但是算法摘要可能会出错,包括过时的信息或消除细微差别和不确定性,而用户不会对此表示赞赏。如果有人可以使用 LLM 使复杂的研究变得易于理解,但他们冒着获得与混乱现实不一致的简化、理想化的科学观点的风险,这可能会威胁到专业性和权威性。它还可能加剧公众对科学的信任问题。人们与这些工具的交互将非常个性化,每个用户都会获得自己生成的信息。

LLMs 可能使用过时的或者不可靠的研究,这难道不是一个大问题吗?

是的。但这并不意味着人们不会使用 LLM。它们很诱人,而且它们的流畅输出和令人兴奋的新技术的描述将具有客观性的外表。它们有限制的事实——它们可能建立在部分或历史数据集之上——可能不会被普通用户识别。

科学家很容易断言它们很聪明,并意识到 LLM 是有效,但并不完整的工具——例如,用于开始文献综述。尽管如此,这些类型的工具可能会缩小使用者的视野,并且使用者很难发觉 LLM 何时会出现问题。

LLM 在数字人文学科中可能很有用,例如:总结历史文本对特定主题的描述。但是这些模型的过程是不透明的,并且它们没有在输出的同时提供资源,因此研究人员需要仔细考虑他们将如何使用它们。Parthasarathy 在社会学中看到了一些提议的用法,并对一些学者的轻信程度感到惊讶。

谁可以为科学创造这些模型?

Parthasarathy 的猜测是,大型科学出版商将处于开发特定科学 LLM(改编自通用模型)的最佳位置,能够爬取其论文的专有全文。他们还可以寻求自动化同行评审的各个方面,例如查询科学文本以找出应该咨询谁作为审稿人。LLMs 也可用于尝试在手稿或专利中,挑选出特别创新的结果,甚至可能帮助评估这些结果。

出版商还可以开发 LLM 软件来帮助非英语国家的研究人员改进他们的论文。

当然,出版商可能会达成许可协议,将他们的文本提供给大公司以包含在他们的语言素材库中。Parthasarathy 认为他们更有可能试图保持控制。如果是这样,对他们的知识垄断越来越感到沮丧的科学家们会对此提出质疑。

基于开放获取论文和付费论文摘要的 LLMs 有一些潜力;但以这种方式可能很难获得足够多的最新科学文本。

LLMs 可以用来制作以假乱真的论文吗?

是的,如果这件事很容易做到,并且他们认为这样做有助于他们的职业生涯,有些鬼迷心窍的人会使用 LLM 来生成假的论文。尽管如此,大多数确实想成为科学界一员的科学家,还是希望就使用 LLM 的法规和规范达成一致。

应如何规范 LLM 的使用?

令人着迷的是,几乎没有任何 AI 工具通过了系统性法规或标准维护机制。对于 LLM 来说也是如此:他们的方法是不透明的,并且因开发人员而异。在 Parthasarathy 的报告中,他们建议政府机构介入一般监管。

特别是对于 LLM 可能在科学中的应用,透明度至关重要。那些正在开发 LLM 的人应该解释使用了哪些文本,以及所涉及算法的逻辑——并且应该清楚是否使用计算机软件来生成输出。他们认为,学界还应该支持开发一个受过广泛领域的所有公开科学文章培训的 LLMs。

科学家们应该警惕期刊或资助者依赖 LLM 来寻找同行评审员或(可以想象)将此过程扩展到评审的其他方面,例如评估手稿或赠款。由于 LLM 转向过去的数据,因此他们的建议可能过于保守。

论文链接:https://www.nature.com/articles/d41586-022-01191-3

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)大脑研究计划,构建互联网(城市)大脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

936b551929fc9ec50350ef4b583e8f1c.png

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/爱喝兽奶帝天荒/article/detail/745931
推荐阅读
相关标签
  

闽ICP备14008679号