打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
Nature|人工智能与科学:1600名研究人员的观点汇总
userphoto

2023.10.13 上海

关注
2023年9月27日,Nature对全球1600多名研究人员进行的一项调查显示,人工智能工具在科学领域正变得越来越普遍,许多科学家预计这些工具将很快成为研究实践的核心。其中一半以上的受访者认为人工智能工具“非常重要”或“必不可少”。但科学家们也对人工智能如何改变研究方式表示了强烈的担忧。

在过去十年中,每个领域中提及人工智能术语的研究论文比例都在上升:

Nature调查了研究人员对人工智能(包括机器学习和生成式人工智能工具)在科学领域崛起的看法。 
三分之二的人指出,AI提供了更快的数据处理方法。58%的人觉得AI加快了计算速度;55%的人认为AI节省了时间和金钱
北卡罗来纳州达勒姆杜克大学的计算生物学家Irene Kaplow说:“AI使我能够在回答生物学问题方面取得进展,而这在以前是不可行的。”
在可能的负面影响中,69%的研究人员表示,AI可能会导致人们更加依赖模式识别而不去理解;58%的研究人员表示,AI结果可能会使数据中的偏见或歧视根深蒂固;55%的研究人员认为,AI可能会使造假更容易;53%的研究人员指出,考虑不周的使用可能会导致研究的不可再现性

康涅狄格州法明顿杰克逊实验室研究癌症图像分析的Jeffrey Chuang说:“主要问题在于,AI正在挑战我们现有的证明和真理标准。”

基本用途

为了评估活跃研究人员的观点,Nature向4万多名在2022年最后4个月发表过论文的科学家发送了电子邮件,并邀请Nature简报的读者参与调查。受访者分为三类:48%的人自己直接开发或研究AI;30%的人在研究中使用了AI;22% 的人在科学研究中没有使用AI

在研究中使用AI的研究人员中,超过四分之一的人认为AI将在未来十年内成为其研究领域的“必需品”,仅有4%认为现在AI是必不可少的。另有47%的人认为AI将“非常有用”。
不使用AI的研究人员对此并不太感兴趣。即便如此,仍然有9%的人认为AI将在未来十年内变得“必不可少”,另有34%的人表示它们将“非常有用”。

大型语言模型

在选择AI可能带来的负面影响时,主要有三种:错误信息泛滥(68%)、使剽窃变得容易(68%)、将错误或不准确的信息带入研究论文中(66%)

在医疗诊断上,受访者担心AI工具如果根据历史上有偏见的数据训练出来,会出现伪造研究、虚假信息和长期存在偏见的情况。
企业家、软件工Isabella Degen说:“在我看来,我们并不清楚好的使用和滥用之间的边界在哪里。”
研究人员认为,最明显的好处是大型语言模型(LLMs)可以帮助非英语母语的研究人员,改进他们研究论文的语法和风格,总结或翻译其他工作。

在工作中经常使用LLMs的研究人员仍然是少数。在研究AI的人员中,约有28%的人表示他们每天或每周使用一次以上生成式AI产品,如LLMs;在只使用AI的研究人员中,有13%的人表示他们使用过LLMs;而在其他研究人员中,只有1%的人表示他们使用过LLMs。

在所有调查群体中,最常用的是与研究无关的创造性乐趣;还有一小部分受访者使用这些工具编写代码、构思研究方案以及撰写研究论文。

一些科学家对LLMs的产出不以为然。一位使用LLMs帮助编辑论文的研究人员写道:感觉ChatGPT抄袭了人类所有的写作陋习:用大量的字来表达很少的内容。University of Turku的物理学家Johannes Niskanen则写道:如果我们使用AI来阅读和撰写文章,那么科学很快就会从'人类为人类服务'转变为'机器为机器服务'。

进步的障碍

约有一半的科学家在调查中表示,有一些障碍阻碍了开发或使用AI。直接研究AI的研究人员最担心的是缺乏计算资源、工作经费以及高质量数据。在其他领域工作但在研究中使用AI的担心缺乏技术熟练的科学家和培训资源,他们还提到了安全和隐私方面的考虑。没有使用AI的研究人员表示,他们不需要AI,也不觉得AI有用,或者他们缺乏研究AI的经验或时间。

商业公司主导着人工智能的计算资源和人工智能工具的所有权也是一些受访者关心的问题。研究AI的科学家中有23%表示他们与开发这些工具的公司合作或在这些公司工作(其中最常提到的是谷歌和微软),而仅使用AI的人中只有7%有这样的经历。

总体而言,过半受访者认为使用AI的研究人员与这些公司的科学家进行合作是“非常”或“有些”重要的。

研究人员曾多次警告,在科学中天真地使用AI会导致错误、假阳性和不可再现的发现。一些科学家表示,他们担心使用AI的论文研究质量不高。

曼哈顿堪萨斯州立大学的计算机科学家Lior Shamir说:“机器学习有时是有用的,但人AI造成的损害比它带来的帮助更大。由于科学家在不知道自己做什么的情况下使用AI,导致了错误的发现。”

当被问及期刊编辑和同行评审人员是否能够充分评审使用AI的论文时,在工作中使用了AI但没有直接开发AI的科学家中,约有一半人表示不知道,四分之一的人认为审查是充分的,四分之一的人认为审查不充分。那些直接开发AI的科学家对编辑和审查过程有更积极的看法。

一位从事地球科学工作但不愿透露姓名的日本受访者表示,这可能很难做到。他写道:作为编辑,很难找到既熟悉机器学习(ML)方法又熟悉ML所应用的科学的审稿人。
Nature还调查了受访者对AI对社会的七种潜在影响的担忧程度。传播错误信息是研究人员最担心的。自动AI武器和AI辅助监控也名列前茅。最不令人担忧的影响是可能对人类生存构成威胁。
马萨诸塞州波士顿贝斯以色列女执事医疗中心的肝病专家Yury Popov写AI是变革性的。我们现在必须关注如何确保它带来的好处多于问题。
参考资料:
Nature 621, 672-675 (2023)
doi: https://doi.org/10.1038/d41586-023-02980-0
本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
AI在科研中的渗透率,1600名科学家这样说
Nature 封面:AI 改变科学的多种方式,无论是好是坏
科学网—ChatGPT和科学研究
全球270位科学家强烈吐槽,数落科研系统“七宗罪”
论文合著:年轻科学家长期为资深学者当“绿叶”
科学面临的七大问题及出路
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服