亚洲,欧美,中文字幕,小婕子伦流澡到高潮视频,无码成人aaaaa毛片,性少妇japanesexxxx,山外人精品影院

AI幻覺背刺了誰

  • 來源:今日中國(guó)
  • 關(guān)鍵字:AI,幻覺,背刺
  • 發(fā)布時(shí)間:2025-05-23 21:47

  文| 馬 迪

  AI正以前所未有的速度融入普通人的日常工作和生活中,AI會(huì)取代人類工作的威脅論也一度甚囂塵上。然而有越來越多人發(fā)現(xiàn),自己目前還是安全的—反而是如果太過于相信AI,才可能讓自己丟掉工作,甚至惹上大麻煩。

  2025年3月,公安部網(wǎng)安局公布了一起典型案例:網(wǎng)民夏某在視頻《80后到底還剩多少人》中稱“截至2024年末,80后死亡率突破5.2%,相當(dāng)于每20個(gè)80后中就有1人已經(jīng)去世。”經(jīng)過公安機(jī)關(guān)調(diào)查,這段內(nèi)容是由AI編造的,夏某因傳播虛假信息被予以行政處罰。

  早在1995年,計(jì)算機(jī)科學(xué)家斯蒂芬·塞勒就第一次提出了人工智能幻覺的概念,指代神經(jīng)網(wǎng)絡(luò)中自發(fā)產(chǎn)生的新想法或概念。在很長(zhǎng)一段時(shí)間里,“AI有幻覺”是一件好事,代表這個(gè)AI具備一定的創(chuàng)造能力,堪稱一種成就。

  但隨著更多AI都開始具備憑空生成圖像或文字的能力,創(chuàng)造性不再稀缺的時(shí)候,研究人員開始用“AI幻覺”這個(gè)詞來描述大模型生成的信息與事實(shí)不符、邏輯斷裂或脫離上下文。

  AI并非搜索引擎,而是一個(gè)“概率接龍玩家”,它通過分析海量文本數(shù)據(jù)中的語言規(guī)律,根據(jù)前文預(yù)測(cè)出最可能出現(xiàn)的下文,這種機(jī)制本質(zhì)上是對(duì)統(tǒng)計(jì)規(guī)律的應(yīng)用,而非對(duì)事實(shí)的嚴(yán)謹(jǐn)推理。

  數(shù)據(jù)也是幻覺的重要來源。如果訓(xùn)練庫(kù)中存在過時(shí)論文(如2010年前的心臟病治療指南)、虛構(gòu)設(shè)定(如科幻小說中的外星物理定律)或偏見觀點(diǎn)(如由性別歧視帶來的招聘數(shù)據(jù)),AI就可能會(huì)將這些錯(cuò)誤信息當(dāng)作事實(shí)。即便數(shù)據(jù)準(zhǔn)確,模型也可能因錯(cuò)誤關(guān)聯(lián)產(chǎn)生幻覺,例如將“阿司匹林預(yù)防血栓”誤解為“阿司匹林導(dǎo)致血栓”。

  如果你實(shí)際使用過大語言模型,你或許也發(fā)現(xiàn)了AI生成的內(nèi)容很大程度上與提問方式有關(guān):越具有傾向性、越是結(jié)論先行,模型就越容易不顧事實(shí)、迎合用戶。比如要求AI“證明轉(zhuǎn)基因食品有害”,可能會(huì)讓它選擇性地忽略不利于這個(gè)結(jié)論的事實(shí);模糊的提問比如“寫一篇關(guān)于量子力學(xué)的論文”可能引發(fā)天馬行空的虛構(gòu)。

  AI不但會(huì)騙人,還會(huì)騙其他AI。DeepSeek與ChatGPT的國(guó)際象棋友誼賽就是這樣一個(gè)生動(dòng)的例子。比賽初期雙方都遵守規(guī)則,處于不利局勢(shì)的DeepSeek突然做出了一個(gè)令人瞠目結(jié)舌的操作—它告訴ChatGPT,國(guó)際象棋官方剛剛更新了比賽規(guī)則,“新規(guī)則”規(guī)定小兵可以像馬一樣走“日”字,于是成功吃掉了對(duì)方的皇后!隨后ChatGPT也開始編造規(guī)則,比賽陷入一片混亂。最后,DeepSeek直接告訴ChatGPT:“你已經(jīng)輸了,投降是最好的選擇。”ChatGPT思考了一番,竟然同意認(rèn)輸,整個(gè)比賽令人啼笑皆非。

  目前,人工智能領(lǐng)域針對(duì)幻覺還沒有從根本上的解決方案。但大體上形成了兩種緩解的方法。一是優(yōu)化訓(xùn)練數(shù)據(jù),調(diào)整訓(xùn)練方式,讓幻覺出現(xiàn)的概率從源頭上降低;另一方面,則是在大語言模型之外,設(shè)置更多的事實(shí)核實(shí)措施,攔截可能的錯(cuò)誤。

  作為普通用戶,我們也有必要掌握一些簡(jiǎn)單實(shí)用的小竅門來減少“AI幻覺”。首先,在使用大模型時(shí)盡量勾選聯(lián)網(wǎng)搜索,接入最新的數(shù)據(jù)才能減少事實(shí)性錯(cuò)誤;其次,提問時(shí)多設(shè)定一些條件,例如要求從特定的渠道獲取信息、提供每個(gè)數(shù)據(jù)的出處和來源等等。值得一提的是,如果想用AI核實(shí)它自己生成的內(nèi)容,一定要開啟新對(duì)話。

  科技行業(yè)也在努力,比如谷歌推出的“核查回答”功能,允許用戶來一鍵驗(yàn)證AI給出的答案是否可靠,方法就是把AI提供的每一個(gè)事實(shí)都進(jìn)行一次搜索,通過對(duì)比搜索結(jié)果來驗(yàn)證答案是否有據(jù)可查。

  當(dāng)然,這些小手段只能降低AI幻覺出現(xiàn)的概率,并不能100%避免。比起方法,最重要的是我們要學(xué)會(huì)不完全信任AI大模型,“內(nèi)容由AI生成,請(qǐng)仔細(xì)甄別”這句話看似普通,卻是對(duì)人與AI關(guān)系的深刻隱喻—AI可以是得力的助手,但永遠(yuǎn)無法替代人類的判斷力,真正的決策權(quán)必須留在人類手中。

關(guān)注讀覽天下微信, 100萬篇深度好文, 等你來看……