Nature:AI好用到“上頭”?當心它讓人類變得“自大”
來源:學術頭條
發(fā)布時間:2024-03-11
瀏覽次數(shù):1392

版權歸原作者所有,如有侵權,請聯(lián)系我們

近年來,人工智能(AI)技術在科學研究領域中的應用與影響日益顯著。從生物醫(yī)學、材料學、到天文學等學科,AI4Science 正改變著科學研究的方式,加速科學研究。

AI 通過提供大規(guī)模數(shù)據(jù)分析、模擬實驗環(huán)境、優(yōu)化研究過程等功能,為科學家們提供了前所未有的支持和幫助,也確實將科學研究推向了一個新的階段。

然而,AI 在為科研帶來更多可能性的同時,也引發(fā)了許多問題。

來自耶魯大學和普林斯頓大學的研究團隊認為,在科學研究中,AI 可能會造成知識生產的單一性,即科學的單一文化(scientific monocultures)

具體來說,在這種文化中,某些類型的方法、問題和觀點主導了其他方法,使科學缺乏創(chuàng)新性,更容易出錯

同時,AI 提出的解決方案也可能掩蓋了我們的認知局限性,使我們容易產生一種錯覺,即我們認為自己對世界的了解比實際情況要多。

因此,科學家需要審慎考慮 AI 在科學研究中的潛在影響,從而負責任地進行知識生產。

相關研究論文以“Artificial intelligence and illusions of understanding in scientific research”為題,已發(fā)表在科學期刊 Nature 上。

該論文從大量與 AI4Science 相關的文獻中,提煉出了 AI 的四大應用愿景——智囊團(Oracles)、代理人(Surrogates)、量化分析師(Quants)和裁決者(Arbiters),并分別討論了 AI 在科學研究中的應用和影響。

表|科學研究中的 AI 愿景。通過分析最近有關 AI 改善跨科學學科知識生產潛力的出版物,得出以上四種類型。納入的論文要么使用“AI”這個通用短語,要么提到 AI 概念之下的特定方法,最常見的是機器學習、自然語言處理和大型語言模型。該表總結了愿景如何響應不同的研究階段,以及對科學能力和效率的感知限制。

人類科學家為何信任AI?

近年來,AI 在科學研究中的應用日益廣泛,其提供的解決方案被認為能夠徹底改變科學研究方法。

但 AI 何以獲得科學家的信任呢?

首先,AI 工具不僅被視為工具,更被看作是研究中的合作者,能夠提供超越人類限制的解決方案和見解。這種認知增強了科學家對 AI 的信任,因為他們將這些工具視為知識生產中的伙伴。

其次,AI 工具被認為具有增強其可信度的特質,如客觀性、深度理解能力以及提供令人滿意的解釋能力。這種描繪使得 AI 工具在某些情況下比人類更值得信賴。

第三,AI 工具提供的解決方案符合人們對簡單、廣泛、簡化和量化解釋的偏好,進而增強了對理解的感知

然而,將 AI 整合到科學研究中也存在認知風險,尤其是認知理解的錯覺形式。

圖|AI 驅動的科學研究中的理解錯覺。

如上圖 a 所示,使用 AI 工具進行研究的科學家可能會產生解釋深度的錯覺。在示例中,一位科學家使用 AI Quant 對現(xiàn)象 (X) 進行建模,并相信他們對 X 的理解比實際更深入。

在圖 b 中,在單一的認知文化中,科學家很容易產生探索廣度的錯覺,他們錯誤地認為自己正在探索所有可檢驗假設的空間,而實際上他們正在探索可以用 AI 工具檢驗的更狹窄的假設空間。

另外,如圖 c,在知識者單一文化中,科學家很容易產生客觀性錯覺,他們錯誤地認為 AI 工具沒有立場或能夠代表所有可能的立場使用人類參與者進行研究的替代者),而 AI 工具實際上嵌入了訓練數(shù)據(jù)和開發(fā)人員的觀點。認知理解的錯覺發(fā)生在個體高估自己的理解程度時,將 AI 工具或其他社區(qū)成員的知識和能力誤認為自己的。這種現(xiàn)象可能導致科學論斷中的錯誤和過度樂觀,特別是當 AI 工具在專家領域之外使用時。

AI4Science的未來,一切向好嗎?

由于 AI 工具看似可信且承諾提升研究的質量和數(shù)量,因此依賴這些工具的研究可能會大幅增加。目前,關于 AI 的引用在出版物和專利中在逐漸增多,并且使用 AI 工具的論文在學科內外的引用都呈現(xiàn)出增加的趨勢。

如果這個趨勢持續(xù)發(fā)展,那么當 AI 輔助研究逐漸主導知識生產,會有哪些認知風險?

文中給出了一個觀點:科學可能會形成單一文化。

作者用了一個類比來說明這一點:在農業(yè)中,單一文化是一種在同一片土地上只種植一種作物的做法。這種做法提高了效率,但也使作物更容易受到害蟲和疾病的侵害。

文章認為,AI 工具所提供的效率可以促進科學單一文化的發(fā)展,其中某些形式的知識生產主導了其他所有形式。它們可以通過兩種不同但相輔相成的方式實現(xiàn)。

首先,通過優(yōu)先考慮最適合 AI 輔助的問題和方法(知識生產的單一文化)。

其次,通過優(yōu)先考慮 AI 能夠表達的觀點類型(知識所有者的單一文化)。

就像植物單一文化更容易受到害蟲和疾病的侵害一樣,科學單一文化使我們對世界的理解更容易出現(xiàn)錯誤、偏見和錯失創(chuàng)新的機會。

當新工具和技術產生時,科學家總是傾向于迅速利用它們的優(yōu)勢。然而,AI 工具被預測將在各個領域得到廣泛應用,成為超級合作者融入到知識社區(qū)中,這樣的風險可能會變得尤其嚴重。

除了威脅科學的蓬勃發(fā)展外,知識生產的單一文化還會產生認知理解錯覺。在這些錯覺中,科學家錯誤地認為,AI 工具推進了人類對科學的理解,而不是意識到,這些工具實際上縮小了科學知識生產的范圍。

了解風險,是應對風險的關鍵一步。為了減輕 AI 在知識生產中應用的風險,人類需要增強對科學單一文化的認知風險的理解,以及對認知錯覺的感知。

事實上,AI 在科學中的應用確實讓所有人興奮,比如 AI 化學家加速催化研究,生成式 AI 助力碳捕集等等。

然而,在 AI4Science 走得更遠之前,科學家們必須考慮到 AI 的技術限制和潛力,以及它對科學知識生產社會實踐的影響。

AI 輔助科學研究也許預示著這樣一個未來,其中不僅參與者缺乏多樣性,而且追求的研究主題也缺乏多樣性。它們還引發(fā)了認知理解的錯覺,阻止我們意識到我們的視野已經變窄。

盡管 AI 在科學中的廣泛應用是不可避免的,但科學家,除了進行知識生產外,還有責任決定事物的發(fā)展方式。

歡迎掃碼關注深i科普!

我們將定期推出

公益、免費、優(yōu)惠的科普活動和科普好物!


聽說,打賞我的人最后都找到了真愛。
做科普,我們是認真的!
掃描關注深i科普公眾號
加入科普活動群
  • 參加最新科普活動
  • 認識科普小朋友
  • 成為科學小記者