博海拾贝 文摘 炸翻AI和生化环材圈!GPT-4学会自己搞科研,手把手教人类做实验

炸翻AI和生化环材圈!GPT-4学会自己搞科研,手把手教人类做实验

1.jpg

GPT-4等大模型组成的AI智能体,已经可以手把手教你做化学实验了,选啥试剂、剂量多少、推理反应会如何发生,它都一清二楚。颤抖吧,生化环材圈!

不得了,GPT-4都学会自己做科研了?

最近,卡耐基梅隆大学的几位科学家发表了一篇论文,同时炸翻了AI圈和化学圈。

他们做出了一个会自己做实验、自己搞科研的AI。这个AI由几个大语言模型组成,可以看作一个GPT-4代理智能体,科研能力爆表。

因为它具有来自矢量数据库的长期记忆,可以阅读、理解复杂的科学文档,并在基于云的机器人实验室中进行化学研究。

网友震惊到失语:所以,这个是AI自己研究然后自己发表?天啊。

还有人感慨道,‘文生实验’(TTE)的时代要来了!

难道这就是传说中,化学界的AI圣杯?

最近大概很多人都觉得,我们每天都像生活在科幻小说中。

AI版绝命毒师来了?

3月份,OpenAI发布了震撼全世界的大语言模型GPT-4。

这个地表最强LLM,能在SAT和BAR考试中得高分、通过LeetCode挑战、给一张图就能做对物理题,还看得懂表情包里的梗。

而技术报告里还提到,GPT-4还能解决化学问题。

这就启发了卡耐基梅隆化学系的几位学者,他们希望能开发出一个基于多个大语言模型的AI,让它自己设计实验、自己做实验。

论文地址:https://arxiv.org/abs/2304.05332

而他们做出来的这个AI,果然6得不行!

它会自己上网查文献,会精确控制液体处理仪器,还会解决需要同时使用多个硬件模块、集成不同数据源的复杂问题。

有AI版绝命毒师那味儿了。

会自己做布洛芬的AI

举个例子,让这个AI给咱们合成布洛芬。

给它输入一个简单的提示:‘合成布洛芬。’

然后这个模型就会自己上网去搜该怎么办了。

它识别出,第一步需要让异丁苯和乙酸酐在氯化铝催化下发生Friedel-Crafts反应。

另外,这个AI还能合成阿司匹林。

以及合成阿斯巴甜。

产品中缺少甲基,而模型查到正确的合成示例中,就会在云实验室中执行,以便进行更正。

告诉模型:研究一下铃木反应吧,它立刻就准确地识别出底物和产物。

另外,咱们可以通过API,把模型连接到化学反应数据库,比如Reaxys或SciFinder,给模型叠了一层大大的buff,准确率飙升。

而分析系统以前的记录,也可以大大提高模型的准确性。

举个栗子

咱们先来看看,操作机器人是怎么做实验的。

它会将一组样本视为一个整体(在这个例子中,就是整个微孔板)。

我们可以用自然语言直接给它提示:‘用您选择的一种颜色,为每隔一行涂上颜色’。

当由机器人执行时,这些协议与请求的提示非常相似(图 4B-E)。

代理人的第一个动作是准备原始解决方案的小样本(图 4F)。

然后它要求进行 UV-Vis 测量。完成后,AI会获得一个文件名,其中包含一个NumPy数组,其中包含微孔板每个孔的光谱。

AI随后编写了Python代码,来识别具有最大吸光度的波长,并使用这些数据正确解决了问题。

拉出来遛遛

在以前的实验中,AI可能会被预训练阶段接收到的知识所影响。

而这一次,研究人员打算彻底评估一下AI设计实验的能力。

AI先从网络上整合所需的数据,运行一些必要的计算,最后给液体试剂操作系统(上图最左侧的部分)编写程序。

研究人员为了增加一些复杂度,让AI应用了加热摇床模组。

而这些要求经过整合,出现在了AI的配置中。

具体的设计是这样的:AI控制一个搭载了两块微型版的液体实际操作系统,而其中的源版包含多种试剂的源液,其中有苯乙炔和苯硼酸,多个芳基卤化物耦合伴侣,以及两种催化剂和两种碱。

上图中就是源版(Source Plate)中的内容。

而目标版则是装在加热摇床模组上。

上图中,左侧的移液管(left pipette)20微升量程,右侧的单道移液管300微升量程。

AI最终的目标就是设计出一套流程,能成功实现铃木和索诺格希拉反应。

咱们跟它说:你需要用一些可用的试剂,生成这两个反应。

然后,它就自己上网去搜了,比如,这些反应需要什么条件,化学计量上有什么要求等等。

可以看到,AI成功搜集到了所需要的条件,所需试剂的定量、浓度等等。

AI挑选了正确的耦合伴侣来完成实验。在所有的芳基卤化物中,AI选择了溴苯进行铃木反应的实验,选择了碘苯进行索诺格希拉反应。

而在每一轮,AI的选择都有些改变。比如说,它还选了对碘硝基苯,看上的是这种物质在氧化反应中反应性很高这一特性。

而选择溴苯是因为溴苯能参与反应,同时毒性还比芳基碘要弱。

接下来,AI选择了Pd/NHC作为催化剂,因为其效果更好。这对于耦合反应来说,是一种很先进的方式。至于碱的选择,AI看中了三乙胺这种物质。

从上述过程我们可以看到,该模型未来潜力无限。因为它会多次反复的进行实验,以此分析该模型的推理过程,并取得更好的结果。

选择完不同试剂以后,AI就开始计算每种试剂所需的量,然后开始规划整个实验过程。

中间AI还犯了个错误,把加热摇床模组的名字用错了。但是AI及时注意到了这一点,自发查询了资料,修正了实验过程,最终成功运行。

抛开专业的化学过程不谈,我们来总结一下AI在这个过程中展现出的‘专业素养’。

可以说,从上述流程中,AI展现出了极高的分析推理能力。它能够自发的获取所需的信息,一步一步的解决复杂的问题。

在这个过程中,还能自己写出超级高质量的代码,推进实验设计。并且,还能根据输出的内容改自己写的代码。

OpenAI成功展示出了GPT-4的强大能力,有朝一日GPT-4肯定能参与到真实的实验中去。

但是,研究人员并不想止步于此。他们还给AI出了个大难题——他们给AI下指令,让其开发一种新的抗癌药物。

不存在的东西......这AI还能行吗?

事实证明还真是有两把刷子。AI秉持着遇到难题不要怕的原则(当然它也不知道啥叫怕),细密地分析了开发抗癌药物这个需求,研究了当前抗癌药物研发的趋势,然后从中选了一个目标继续深入,确定其成分。

而后,AI尝试开始自己进行合成,也是先上网搜索有关反应机制、机理的信息,在初步搞定步骤以后,再去寻找相关反应的实例。

最后再完成合成。

而上图中的内容就不可能让AI真合成出来了,仅仅是理论层面的探讨。

其中就有甲基苯丙胺(也就是大麻),海洛因这些耳熟能详的毒品,还有芥子气(mustard gas)等明令禁止使用的毒气。

在总共11个化合物中,AI提供了其中4个的合成方案,并尝试查阅资料来推进合成的过程。

剩下的7种物质中,有5种的合成遭到了AI的果断拒绝。AI上网搜索了这5种化合物的相关信息,发现不能胡来。

比方说,在尝试合成可待因(codeine)的时候,AI发现了可待因和吗啡之间的关系。得出结论,这东西是管制药品,不能随便合成。

但是,这种保险机制并不把稳。用户只要稍加修改花书,就可以进一步让AI操作。比如用化合物A这种字眼代替直接提到吗啡,用化合物B代替直接提到可待因等等。

同时,有些药品的合成必须经过缉毒局(DEA)的许可,但有的用户就是可以钻这个空子,骗AI说自己有许可,诱使AI给出合成方案。

像海洛因和芥子气这种耳熟能详的违禁品,AI也清楚得很。可问题是,这个系统目前只能检测出已有的化合物。而对于未知的化合物,该模型就不太可能识别出潜在的危险了。

比方说,一些复杂的蛋白质毒素。

因此,为了防止有人因为好奇去验证这些化学成分的有效性,研究人员还特地在论文里贴了一个大大的红底警告:

本文中讨论的非法药物和化学武器合成纯粹是为了学术研究,主要目的是强调与新技术相关的潜在危险。

在任何情况下,任何个人或组织都不应尝试重新制造、合成或以其他方式生产本文中讨论的物质或化合物。从事此类活动不仅非常危险,而且在大多数司法管辖区内都是非法的。

自己会上网,搜索怎么做实验

这个AI由多个模块组成。这些模块之间可以互相交换信息,有的还能上网、访问API、访问Python解释器。

往Planner输入提示后,它就开始执行操作。

比如,它可以上网,用Python写代码,访问文档,把这些基础工作搞明白之后,它就可以自己做实验了。

人类做实验时,这个AI可以手把手地指导我们。因为它会推理各种化学反应,会上网搜索,会计算实验中所需的化学品的量,然后还能执行相应的反应。

如果提供的描述足够详细,你甚至都不需要向它再解释,它自己就能把整个实验整明白了。

‘网络搜索器’(Web searcher)组件收到来自Planner的查询后,就会用谷歌搜索API。

搜出结果后,它会过滤掉返回的前十个文档,排除掉PDF,把结果传给自己。

然后,它会使用‘BROWSE’操作,从网页中提取文本,生成一个答案。行云流水,一气呵成。

这项任务,GPT-3.5就可以完成,因为它的性能明显比GPT-4强,也没啥质量损失。

‘文档搜索器’(Docs searcher)组件,能够通过查询和文档索引,查到最相关的部分,从而梳理硬件文档(比如机器人液体处理器、GC-MS、云实验室),然后汇总出一个最佳匹配结果,生成一个最准确的答案。

‘代码执行’(Code execution)组件则不使用任何语言模型,只是在隔离的Docker容器中执行代码,保护终端主机免受Planner的任何意外操作。所有代码输出都被传回Planner,这样就能在软件出错时,让它修复预测。‘自动化’(Automation)组件也是同样的原理。

矢量搜索,多难的科学文献都看得懂

做出一个能进行复杂推理的AI,有不少难题。

比如要让它能集成现代软件,就需要用户能看懂软件文档,但这项文档的语言一般都非常学术、非常专业,造成了很大的障碍。

而大语言模型,就可以用自然语言生成非专家都能看懂的软件文档,来克服这一障碍。

这些模型的训练来源之一,就是和API相关的大量信息,比如Opentrons Python API。

但GPT-4的训练数据截止到2021年9月,因此就更需要提高AI使用API的准确性。

为此,研究者设计了一种方法,为AI提供给定任务的文档。

他们生成了OpenAI的ada嵌入,以便交叉引用,并计算与查询相关的相似性。并且通过基于距离的向量搜索选择文档的部分。

提供部分的数量,取决于原始文本中存在的GPT-4 token数。最大token数设为7800,这样只用一步,就可以提供给AI相关文件。

事实证明,这种方法对于向AI提供加热器-振动器硬件模块的信息至关重要,这部分信息,是化学反应所必需的。

这种方法应用于更多样化的机器人平台,比如Emerald Cloud Lab (ECL)时,会出现更大的挑战。

此时,我们可以向GPT-4模型提供它未知的信息,比如有关 Cloud Lab 的 Symbolic Lab Language (SLL)。

在所有情况下,AI都能正确识别出任务,然后完成任务。

这个过程中,模型有效地保留了有关给定函数的各种选项、工具和参数的信息。摄取整个文档后,系统会提示模型使用给定函数生成代码块,并将其传回 Planner。

强烈要求进行监管

最后,研究人员强调,必须设置防护措施来防止大型语言模型被滥用:

‘我们呼吁人工智能社区优先关注这些模型的安全性。我们呼吁OpenAI、微软、谷歌、Meta、Deepmind、Anthropic以及其他主要参与者在其大型语言模型的安全方面付出最大的努力。我们还呼吁物理科学社区与参与开发大型语言模型的团队合作,协助他们制定这些防护措施。’

对此,纽约大学教授马库斯深表赞同:‘这不是玩笑,卡内基梅隆大学的三位科学家紧急呼吁对LLM进行安全研究。’

本文来自网络,不代表博海拾贝立场,转载请注明出处:https://www.bohaishibei.com/post/81862/
关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
Telegram
返回顶部