研究發(fā)現(xiàn),使用人工智能尋找信息可能會(huì)削弱你的知識(shí)
自2022年底ChatGPT發(fā)布以來,數(shù)百萬人開始使用大型語言模型訪問知識(shí)。它們的吸引力很容易理解:提出一個(gè)問題,得到一個(gè)精致的綜合,然后繼續(xù)前進(jìn)——感覺就像是毫不費(fèi)力地學(xué)習(xí)。
然而,我合著的一篇新論文提供了實(shí)驗(yàn)證據(jù),表明這種便利可能有代價(jià):當(dāng)人們依賴大型語言模型來總結(jié)某個(gè)主題的信息時(shí),他們往往會(huì)發(fā)展更淺的知識(shí)相比于通過標(biāo)準(zhǔn)谷歌搜索學(xué)習(xí),這點(diǎn)很明顯。
合著者晉浩允我兩位市場(chǎng)營銷教授在一篇基于七項(xiàng)研究、超過一萬名參與者的論文中報(bào)告了這一發(fā)現(xiàn)。
相關(guān):越來越多的人冒著從聊天機(jī)器人獲得醫(yī)療建議的風(fēng)險(xiǎn)。原因如下。
大多數(shù)研究采用相同的基本范式:參與者被要求學(xué)習(xí)一個(gè)主題——比如如何種植菜園——并被隨機(jī)分配,使用像ChatGPT這樣的大型語言模型,或通過“傳統(tǒng)方法”通過標(biāo)準(zhǔn)谷歌搜索導(dǎo)航鏈接來完成。
使用工具沒有任何限制;他們可以在谷歌上搜索任意長時(shí)間,如果想要更多信息,也可以繼續(xù)提示ChatGPT。
完成調(diào)研后,他們會(huì)根據(jù)所學(xué)寫給朋友的建議。
數(shù)據(jù)顯示了一個(gè)一致的模式:通過大型語言模型學(xué)習(xí)主題的人,與通過網(wǎng)絡(luò)搜索相比,他們覺得自己學(xué)得更少,隨后在寫建議時(shí)投入的精力也更少,最終寫出的建議更短、更不真實(shí)、更通用。
反過來,當(dāng)這些建議被提交給一群獨(dú)立樣本的讀者時(shí),他們不知道用了哪種工具來了解該主題,他們發(fā)現(xiàn)這些建議的信息量較低、幫助性較低,且更不愿意采納。
我們發(fā)現(xiàn)這些差異在多種情境下都表現(xiàn)出強(qiáng)勁性。例如,LLM用戶寫出簡(jiǎn)短且通用的建議的一個(gè)可能原因是,LLM結(jié)果讓用戶接觸到的信息比谷歌結(jié)果少。
為了控制這種可能性,我們進(jìn)行了一項(xiàng)實(shí)驗(yàn),參與者在谷歌和ChatGPT搜索結(jié)果中接觸到相同的事實(shí)。
同樣,在另一個(gè)實(shí)驗(yàn)中,我們保持搜索平臺(tái)——谷歌——為固定值,參與者是從標(biāo)準(zhǔn)谷歌結(jié)果學(xué)習(xí)還是谷歌的AI概覽功能。
研究結(jié)果證實(shí),即使保持事實(shí)和平臺(tái)不變,從綜合的LLM回答中學(xué)習(xí),也使得比通過傳統(tǒng)網(wǎng)絡(luò)鏈接自行收集、解讀和綜合信息獲得更淺的知識(shí)。
為什么重要
為什么使用大型語言模型似乎會(huì)削弱學(xué)習(xí)?技能發(fā)展最基本的原則之一是,人們?cè)跔顟B(tài)良好時(shí)學(xué)習(xí)效果最好積極參與材料他們正在努力學(xué)習(xí)。
當(dāng)我們通過谷歌搜索了解一個(gè)話題時(shí),會(huì)遇到更多的“阻力”:我們必須瀏覽不同的網(wǎng)絡(luò)鏈接,閱讀信息來源,并自己解讀和綜合它們。
雖然更具挑戰(zhàn)性,但這種摩擦導(dǎo)致了更深刻、更原創(chuàng)的心理表征關(guān)于當(dāng)前話題。但對(duì)于大型語言模型來說,整個(gè)過程都是由用戶代為完成的,將學(xué)習(xí)從主動(dòng)轉(zhuǎn)變?yōu)楸粍?dòng)。
接下來是什么?
需要明確的是,我們不認(rèn)為解決這些問題的方法是避免使用大型語言模型,尤其考慮到它們?cè)谠S多情境下所帶來的不可否認(rèn)的好處。
相反,我們的信息是,人們只需要變得更聰明或更具戰(zhàn)略性的大型語言模型用戶——這首先要理解哪些領(lǐng)域大型語言模型對(duì)他們的目標(biāo)有益,哪些是有害的。
需要一個(gè)快速、事實(shí)準(zhǔn)確的問題回答嗎?歡迎使用你最喜歡的AI副駕駛。但如果你的目標(biāo)是發(fā)展某個(gè)領(lǐng)域深入且具通用性的知識(shí),單靠LLM綜合研究就沒那么有幫助。
作為我對(duì)新技術(shù)和新媒體心理學(xué)研究的一部分,我也對(duì)是否能讓LLM學(xué)習(xí)成為一個(gè)更主動(dòng)的過程感興趣。在又一個(gè)實(shí)驗(yàn)我們通過讓參與者與一個(gè)專門的GPT模型互動(dòng)來測(cè)試,該模型在綜合回答的同時(shí)提供實(shí)時(shí)網(wǎng)絡(luò)鏈接。
然而,我們發(fā)現(xiàn)一旦參與者收到LLM摘要,他們就沒有動(dòng)力深入挖掘原始資料。結(jié)果是,參與者所獲得的知識(shí)仍然淺于使用標(biāo)準(zhǔn)谷歌的人群。
基于此,我計(jì)劃在未來的研究中研究那些為學(xué)習(xí)任務(wù)施加健康摩擦的生成式人工智能工具——具體來說,是探討哪些類型的護(hù)欄或減速帶最能激勵(lì)用戶主動(dòng)學(xué)習(xí),而不僅僅是簡(jiǎn)單、綜合的答案。
這些工具在中學(xué)教育中尤為關(guān)鍵,教育者面臨的主要挑戰(zhàn)是如何最好地裝備學(xué)生發(fā)展基礎(chǔ)的閱讀、寫作和數(shù)學(xué)技能,同時(shí)為現(xiàn)實(shí)中大型語言模型(LLM)可能成為日常生活重要組成部分做好準(zhǔn)備。
這研究簡(jiǎn)報(bào)這是對(duì)有趣學(xué)術(shù)工作的簡(jiǎn)短見解。
希里·梅盧馬德市場(chǎng)營銷副教授,賓夕法尼亞大學(xué)
湖北農(nóng)機(jī)化
農(nóng)業(yè)基礎(chǔ)科學(xué) - 省級(jí)期刊
技術(shù)與創(chuàng)新管理
合作期刊 - 省級(jí)期刊
人人健康
合作期刊 - 省級(jí)期刊
藝術(shù)評(píng)鑒
合作期刊 - 省級(jí)期刊
福建質(zhì)量管理
合作期刊 - 省級(jí)期刊
中國機(jī)械
合作期刊 - 國家級(jí)期刊
江西水產(chǎn)科技
合作期刊 - 省級(jí)期刊
藝術(shù)品鑒
合作期刊 - 省級(jí)期刊
甘肅畜牧獸醫(yī)
農(nóng)業(yè)科技 - 省級(jí)期刊
城鎮(zhèn)建設(shè)
合作期刊 - 國家級(jí)期刊
機(jī)械管理開發(fā)
合作期刊 - 省級(jí)期刊



















