|
在當下科技創(chuàng)新浪潮中,人工智能驅(qū)動的科學研究(AI for Science,即AI4S)正在重塑科研范式,大數(shù)據(jù)與機器學習技術的深度融合為物理學、生命科學、材料科學等傳統(tǒng)學科提供了新的研究工具和方法。數(shù)據(jù)驅(qū)動型的科學發(fā)現(xiàn)模式和人機協(xié)作的研究方法正逐漸成為科研的新常態(tài)。隨著以大型語言模型為代表的人工智能技術的快速發(fā)展,科學界對“機器幻覺”這一潛在風險的擔憂日益加劇。如何在發(fā)揮AI賦能作用的同時,有效規(guī)避“機器幻覺”風險,已成為保障科研誠信與提升創(chuàng)新質(zhì)量的關鍵議題。 人工智能技術,特別是深度學習,憑借其處理高維數(shù)據(jù)和復雜系統(tǒng)的能力,正在重塑科研方法和流程。在藥物研發(fā)領域,AI可加速分子篩選、優(yōu)化分子結構并預測藥理活性,從而顯著縮短藥物研發(fā)周期和成本。在氣候建模中,AI通過處理大規(guī)模氣候數(shù)據(jù),提升了預測精度。然而,大語言模型在生成內(nèi)容時常常出現(xiàn)“機器幻覺”?!皺C器幻覺”通常是指人工智能系統(tǒng)生成的虛假或不準確的信息,雖然這些信息在表面上看似合理,但實際上并無事實依據(jù)或支持。由于其隱蔽性較強,科研人員往往難以及時識別,從而導致實驗設計偏差或結論誤導。“機器幻覺”正在成為制約AI科研可靠性的關鍵問題。 在AI4S環(huán)境下,“機器幻覺”已從隱匿的技術隱患,演變?yōu)橹萍s科研可靠性、威脅學術誠信與創(chuàng)新質(zhì)量的顯性挑戰(zhàn)?!皺C器幻覺”對科學研究的影響主要體現(xiàn)在科研人員與AI系統(tǒng)的互動過程中,從數(shù)據(jù)管道偏差到算法訓練缺陷,再到推理過程誤導,其影響貫穿科研全流程,對科研生態(tài)的系統(tǒng)性沖擊不容小覷。首先,數(shù)據(jù)管道偏差是AI 幻覺的重要來源之一。它源自訓練數(shù)據(jù)的不準確、偏見或錯誤信息,將影響科研結論的可信度和可重復性。具體而言,錯誤信息型幻覺將導致虛構或不準確的科學結論;偏見型幻覺會放大社會偏見,限制科研方向的多樣性;而知識邊界型幻覺則由于模型對自身知識邊界的不清晰認知,容易生成與事實不符的內(nèi)容。科研人員若過度依賴AI生成的知識而忽視驗證,將形成代際認知斷層。其次,算法訓練各階段的系統(tǒng)性缺陷也構成風險。預訓練階段若僅基于單一數(shù)據(jù)源,將導致模型對復雜問題理解不足;監(jiān)督微調(diào)階段的數(shù)據(jù)偏差會通過“誤差放大效應”降低模型性能;強化學習階段中如果人類反饋與科研嚴謹性不協(xié)調(diào),將導致以追求效率而犧牲準確性的后果。最后,推理過程中的“機器幻覺”可能誤導實驗設計、影響學術交流的準確性,并引發(fā)知識傳播的鏈式偏差。在AI4S快速發(fā)展的背景下,各階段問題相互交織形成“黑箱風險鏈”,從理論失準到資源浪費,最終導致科學發(fā)現(xiàn)的系統(tǒng)性漏判、公眾認知的誤導,人機系統(tǒng)的復合損傷,正在重塑科研風險新格局?!皺C器幻覺”正在從技術挑戰(zhàn)演變?yōu)橹贫刃燥L險,亟須構建系統(tǒng)性防范機制。 在AI4S重塑科研范式的進程中,全球人工智能治理正經(jīng)歷一場深刻的范式轉型,其核心特征是從早期的宏觀原則倡導轉向?qū)η把谹I引發(fā)的高階、系統(tǒng)性風險進行多維度協(xié)同治理。在AI4S加速發(fā)展的背景下,需要從技術體系、倫理規(guī)范、科研文化三個維度構建協(xié)同治理機制,防范“機器幻覺”引發(fā)的系統(tǒng)性風險。 一是構建“風險——過程——追溯”三位一體的技術治理體系。首先,根據(jù)研究活動對人類健康、基礎權利、環(huán)境安全和社會穩(wěn)定的影響,建立風險分級機制,例如將藥物發(fā)現(xiàn)、臨床決策等高風險領域劃為高風險等級,而基礎物理數(shù)據(jù)分析等低風險領域則可適當降低風險等級。其次,在模型開發(fā)階段,采用高質(zhì)量、無偏見的訓練數(shù)據(jù)和測試數(shù)據(jù),并借鑒“數(shù)據(jù)沙盒”理念,構建受控測試環(huán)境,強化數(shù)據(jù)流轉與模型迭代的安全邊界,確保數(shù)據(jù)安全與模型穩(wěn)定性。同時,進行嚴格的性能測試與邏輯一致性驗證,尤其對需要遵循物理或化學規(guī)律的模型,加強模型行為的可解釋性與可驗證性。對于醫(yī)療診斷等高風險應用,應從設計階段即集成可解釋性技術,確保決策過程透明、可追溯、可驗證。此外,技術文檔與日志記錄是實現(xiàn)問責與持續(xù)改進的基礎。每個AI4S項目,尤其是高風險項目,應建立詳盡的技術文檔與自動生成的日志,記錄數(shù)據(jù)來源、預處理方法、模型架構、訓練過程、驗證結果及局限性,以實現(xiàn)模型運行與決策的可追溯、可解釋與可問責。 二是構建既能防范“機器幻覺”風險又能激發(fā)創(chuàng)新活力的科技倫理治理體系。近年來,我國在AI倫理治理方面取得顯著進展,逐步從政策倡導走向制度實施,但仍面臨挑戰(zhàn)。當前,我國已形成以法規(guī)和規(guī)范性文件為核心的多層次制度框架,尤其在腦機接口(BCI)等高風險領域,已建立前置審查機制,要求提交詳盡材料并接受倫理委員會預審。然而,AI4S領域的技術特性(如算法黑箱性、跨學科數(shù)據(jù)融合)使得“機器幻覺”風險呈現(xiàn)隱蔽性、擴散快的特點。當前對“機器幻覺”的治理短板主要集中在兩個層面:一方面,在“規(guī)范制定”層面,需加快制定針對“機器幻覺”風險的專項條款,建立動態(tài)化、可操作的審查標準;另一方面,全國性動態(tài)監(jiān)測平臺建設滯后,導致風險識別與響應存在“時間差”,亟須構建跨學科專家參與的實時評估網(wǎng)絡,同時開發(fā)基于區(qū)塊鏈的AI4S實驗數(shù)據(jù)溯源系統(tǒng)(實現(xiàn)數(shù)據(jù)全生命周期的不可篡改記錄),以實現(xiàn)從風險預警到治理行動的無縫銜接。 三是培育負責任創(chuàng)新的AI4S科研文化。當前,我國正依托國家戰(zhàn)略引導與高校、科研機構探索,分階段推進負責任創(chuàng)新科研文化體系建設,形成“理念引領——制度保障——實踐落地”的推進路徑。在AI素養(yǎng)教育普及能力建設層面,國家通過《教育強國建設規(guī)劃綱要(2024——2035年)》等頂層設計,已推動人工智能通識教育在高校逐步普及。在風險治理與倫理規(guī)范建設層面,構建融合“動態(tài)風險評估、結論可復現(xiàn)性、過程透明度”于一體的治理體系,其必要性已達成廣泛共識,但相關實踐探索尚處于起步階段。在未來人才培養(yǎng)維度,我國已將復合型人才培養(yǎng)置于戰(zhàn)略高度,清華大學、浙江大學等眾多頂尖高校率先啟動“AI+X”交叉學科培養(yǎng)項目,通過設計“人工智能+科學方法論+科研倫理”等課程,致力于培養(yǎng)既掌握前沿AI技能,又具備深厚科學素養(yǎng)與高度倫理自覺的新一代科研人才。展望未來,我國在AI4S領域的負責任創(chuàng)新文化建設,仍需在以下關鍵方向上持續(xù)攻堅:其一,推動風險治理從理念共識走向體系化實踐,將倫理考量無縫嵌入課題立項、數(shù)據(jù)采集、模型訓練、成果發(fā)布等科研全生命周期;其二,積極參與全球AI治理標準制定,分享中國在數(shù)據(jù)治理、算法透明度等領域的實踐智慧,為全球AI4S治理貢獻中國方案;其三,深化復合型人才培養(yǎng)模式改革,確保未來的科研主力軍既能駕馭技術,更能引領價值方向。 總之,發(fā)揮AI賦能科學研究功能,構建AI4S時代的科研可信保障體系,需將AI幻覺治理納入人工智能風險治理的優(yōu)先事項清單。通過技術、倫理、文化三維治理路徑的深度融合,既能守住“機器幻覺”的風險底線,防止其對科研誠信的侵蝕和創(chuàng)新質(zhì)量的損耗,又能充分釋放AI賦能科學研究的潛力,推動數(shù)據(jù)驅(qū)動的科研范式邁向更可信、更高效的新境界。唯有如此,才能在AI4S的浪潮中構建起安全可控、富有活力的科研新生態(tài),為高水平科技自立自強筑牢AI時代的堅實根基。 ?。ㄗ髡呦登迦A大學科學技術與社會研究中心研究員) (責編:鄭繼民)
【版權聲明】凡來源學習時報網(wǎng)的內(nèi)容,其版權均屬中央黨校報刊社所有。任何媒體、網(wǎng)站以及微信公眾平臺在引用、復制、轉載、摘編或以其他任何方式使用上述內(nèi)容時請注明來源為學習時報網(wǎng)。
|