isaac kohane博士哈佛大学计算机科学家和一名医生,与两名同事合作试驾gpt-4,主要目标是:看看openai的最新人工智能模型在医疗环境中的表现。
他在即将出版的书中说:“我惊讶地说:比我观察到的许多医生都要好。” , "医学中的人工智能革命,“由独立记者凯里·戈德伯格和微软研究副总裁彼得·李合著。(作者说,微软和openai都不需要对这本书进行任何编辑监督,尽管微软已经投资数十亿美元开发openai技术。)
在书中,kohane说gpt-4是2023年3月发布给付费用户,90%以上的时间正确回答美国医学考试许可问题。它是比以前的chatgpt ai模型gpt-3和-3.5更好的测试者、和也比一些执业医生强 .
不过,gpt-4不仅是一个很好的测试者和事实发现者。它也是一个伟大的翻译家。在这本书中,它能够为讲葡萄牙语的患者翻译出院信息,并将不可靠的技术术语提炼成六年级学生容易阅读的内容。
正如作者用生动的例子解释的那样,gpt-4还可以为医生提供关于床边方式的有益建议,提供如何用富有同情心、清晰的语言与患者谈论病情的技巧,它还可以阅读冗长的报告或研究总结他们在一眨眼之间。这项技术甚至可以通过问题来解释其推理,这需要对看起来像人的智能进行一些衡量。
但如果你问gpt-4它是如何做到这一切的,它很可能会告诉你,它的所有智能仍然“局限于数据中的模式,不涉及真正的理解或意向性”。这就是gpt-4告诉这本书的作者的,当他们问到它是否真的可以参与因果推理时。正如科哈内在书中发现的那样,即使存在这些局限性,gpt-4也可以模仿医生诊断疾病的方式,取得惊人的成功,尽管并不完美。
gpt-4如何像医生一样诊断isaac kohane是一名医生和计算机科学家,专注于医学和人工智能的交叉。matthew j.lee/《波士顿环球报》(the boston globe via getty images)kohane在书中根据他几年前治疗过的一个新生儿的真实案例,对gpt-4进行了临床思维实验。通过向机器人提供他从体检中收集到的婴儿的一些关键细节,以及超声波和激素水平的一些信息,机器能够正确诊断出10万分之一的情况,称为先天性肾上腺增生科哈内写道:“凭借我多年的学习和经验,我也会这么做。”。
医生既被打动又被吓坏了。
他写道:“一方面,我正在进行一场复杂的医学对话,讨论的是一个计算过程,另一方面,令人震惊的是,人们急切地意识到,数百万家庭很快就会获得这一令人印象深刻的医学专业知识,我想不出我们如何保证或证明gpt-4的建议是安全有效的 ."
gpt-4并不总是正确的-它没有道德指南针gpt-4并不总是可靠的,书中充满了它的错误例子。这些错误包括简单的笔误,比如错误地说出机器人在几分钟前正确计算出的bmi,以及数学错误,比如不准确地“解决”数独难题,或者忘记在方程式中求一个项的平方。错误往往是微妙的,即使受到挑战,系统也倾向于断言自己是正确的。想象一个错误的数字或错误计算的体重如何会导致严重的处方错误或诊断错误,并不是一件难事。
像以前的gpt一样,gpt-4也可以“产生幻觉”,这是人工智能做出答案或不服从请求的技术委婉说法。
当被本书作者问及这一问题时,gpt-4表示:“我无意欺骗或误导任何人,但有时我会根据不完整或不准确的数据犯错误或做出假设。我也没有人类医生或护士的临床判断或道德责任。”
作者在书中建议的一个潜在的交叉检查是,与gpt-4开始一个新的会话,让它“仔细阅读”,并用“全新的眼光”“验证”自己的工作。这种策略有时可以揭示错误,尽管gpt-4在承认错误时有点沉默。另一个容易出错的建议是命令机器人向您显示其工作,以便您可以验证它的人性化。
作者写道,很明显,gpt-4有潜力在临床上释放宝贵的时间和资源,让临床医生能够更多地与患者在一起,“而不是他们的电脑屏幕”。但是,他们说,“我们必须强迫自己去想象一个拥有越来越智能的机器的世界,最终可能会在几乎所有维度上超越人类的智能。然后认真思考我们希望这个世界如何运作。”