日本www黄,欧美日韩成人在线观看,欧美专区在线观看,中文字幕+乱码+中文乱,99热少妇,伊人久久成人,久久伊人超碰

破解AI過度依賴,打破存在焦慮

宋春艷   新湘評論   2025-06-11 10:42:50

當前,以生成式大模型為代表的新一代人工智能正多維度重塑社會運行邏輯。從醫(yī)療診斷到金融決策,從藝術創(chuàng)作到社交互動,AI的賦能效應顯著提升了效率與便利性。然而,AI技術的“雙刃劍”效應日漸凸顯:過度依賴AI導致個體能力退化、職業(yè)焦慮加劇、情感聯(lián)結弱化,甚至引發(fā)人類對自我價值的懷疑。如何平衡AI依賴與維護人的主體性和存在感,記者對湖南省社科院(省人民政府發(fā)展研究中心)研究員、博士宋春艷進行了訪談。

記者:著名倫理學家麥金太爾提出,人是“依賴性的理性動物”,一個人只有依賴他人,才能在一定程度上克服自己的脆弱性和無能性,實現(xiàn)個體作為人類成員的“興盛”。目前人類對AI的依賴日益加重,以致引發(fā)了群體焦慮。您覺得過度依賴AI有哪些弊端?

宋春艷:過度依賴AI的弊端突出表現(xiàn)在三個方面:一是個體認知能力的系統(tǒng)性退化。AI輔助決策和高度自動化運行可能削弱部分人群的獨立思考能力和操作性技能。神經(jīng)科學研究表明,長期依賴外部智能設備可能降低大腦前額葉皮層的活躍度,這將導致個人注意力、情感體驗能力、情緒表達能力嚴重退化。二是職業(yè)的技能貶值與動態(tài)適應困難。AI自動化技術對傳統(tǒng)崗位的替代效應日益顯著,部分從業(yè)者面臨技能貶值風險,職業(yè)安全感被“AI替代”的陰影籠罩。更深遠的影響還在于,AI的快速迭代使終身學習壓力劇增,而人類的學習速度難以匹配AI及賦能的千行百業(yè)的快速升級和變革,進一步加劇職業(yè)前景的不確定性。三是社交與情感的異化。虛擬社交工具尤其是AI聊天機器人的普及導致現(xiàn)實人際互動頻率下降,人們通過AI獲得了“遠方”,但卻失去了“附近”,陷入了孤獨的自由里。

記者:中庸之道是中國傳統(tǒng)文化中的重要哲學思想,其核心理念就是不偏不倚,守中適度。心理學也認為,適度的依賴是人際健康關系的一部分。那么,怎樣破解人類對AI的過度依賴,最大程度避免人工智能技術帶來的“陷阱”呢?

宋春艷:人類在使用AI時應加強反思和批判,重建人的主體性。麥金太爾的“依賴性理性動物”理論為破除AI依賴提供了倫理指南:人類需借助工具來增強自己,但增強不是替代,尤其是需要警惕AI反噬人的主體性。中國傳統(tǒng)文化中的“中庸”智慧可轉(zhuǎn)化為實踐原則:以人為核心,AI為輔助。人的主體性一般在反思和決策中體現(xiàn),因此人在智能時代應主動掌握反思與決策權。作為人工智能的創(chuàng)造者,人類唯有通過持續(xù)保持批判性反思和創(chuàng)造性實踐,才能最大程度避免人工智能技術帶來的“陷阱”。

記者:是否可從增加現(xiàn)實情感體驗和實踐機會,激活人類獨特優(yōu)勢方面,進一步破解人類對AI過度依賴?

宋春艷:是的。無論AI現(xiàn)在功能多么強大,都沒有真正的情感體驗能力。情感體驗能力是人類獨特的優(yōu)勢,也是應對AI過度依賴的關鍵要素,因此應積極推動“體驗式”活動以對抗虛擬化依賴。在運用AI進行協(xié)同性的創(chuàng)意工作時,盡量應用AI為人提供服務,而不是直接提供產(chǎn)品。工程師應加強對自動化與用戶互動的均衡設計,促進產(chǎn)品與用戶之間的情感連接,增加用戶的參與感與責任感。

記者:德國哲學家安德斯曾經(jīng)感嘆,人類“在自己創(chuàng)造的產(chǎn)品的質(zhì)量面前感到一種自嘆不如的羞愧”,將成為“過時的人”。如何通過教育與社會支持系統(tǒng)協(xié)同升級,促進人機協(xié)同進化?

宋春艷:AI是人類創(chuàng)造的高級人工制品,因此它的發(fā)展必須以人類價值為導向,幫助人類增強自身,使得人的演化能夠與人工智能的演化協(xié)同推進。人機協(xié)同演化才能使人機共生的世界成為最大可能的美好世界。這是因為,AI的硬件和軟件在人的設計和控制下不斷升級,更加“酷似”或者“超越”人的某些智能,甚至進化的速度較之以前更快。相比較而言,人的進化遠遠慢于這個進程。為走出這種困境,泰格馬克提出一種新的解決方案,在生命3.0時期,人可以設計自身的軟件和硬件,逐步脫離進化的束縛。也就是說,借助于相關會聚技術,人的硬件(如器官)、軟件(如認知能力)都可以不同程度地得到替換和升級。這正是人機融合的魅力所在。為了實現(xiàn)人機協(xié)同進化的目標,教育與社會支持系統(tǒng)應協(xié)同升級。在學校層面,建議開設AI原理和倫理課程,教授技術原理與局限性。從社會層面,完善職業(yè)轉(zhuǎn)型支持體系,再比如通過政府開展免費AI技能培訓,幫助失業(yè)者掌握與AI協(xié)同工作的技能。

記者:算法推薦誘導用戶上癮,是造成AI過度依賴的重要技術因素。如何加強算法推薦監(jiān)管,構建人機共治的責任網(wǎng)絡?

宋春艷:對算法推薦進行合規(guī)監(jiān)管,能有效降低用戶對AI過度依賴。應通過法律法規(guī)明確使用者和平臺法律責任,從制度層面防止AI使用者和生產(chǎn)者責任推諉。具體舉措包括建立算法監(jiān)督與問責機制,如引入第三方監(jiān)管機構對平臺企業(yè)算法進行倫理審查;要求平臺嵌入日志功能記錄決策過程,便于事后審查。我國《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》要求平臺提供關閉個性化推薦選項,這一創(chuàng)新舉措贏得國際社會高度認可。這類法規(guī)有助于提升算法透明度,助力用戶了解算法推薦邏輯,從而對算法推薦內(nèi)容保持批判性態(tài)度,而非盲目接受,進一步減少AI過度依賴。同時也要進一步轉(zhuǎn)變技術設計價值理念,加強AI產(chǎn)品價值敏感設計,以免人工智能產(chǎn)品身披“客觀”算法外衣,實則被資本掌控。尤其要強化設計師責任,通過“價值敏感設計”將倫理內(nèi)容工程化,使得開發(fā)者在產(chǎn)品原型階段就將隱私保護、決策自主性等人類核心需求納入其中。

記者:如此說來,走向人機共生的“適度依賴”未來可期。

宋春艷:AI依賴危機的本質(zhì)是人類對自身主體性的迷失。破解焦慮并非否定技術,而是通過哲學反思、能力重塑、制度設計等措施重建人機平衡。歷史表明,印刷術、工業(yè)革命等技術革命均伴隨短期陣痛,但最終通過社會調(diào)適實現(xiàn)文明躍遷。在AI時代,人類需以“適度依賴”為原則,將技術嵌入“人本主義”框架——唯有如此,才能實現(xiàn)工具理性與價值理性的統(tǒng)一,走向更具韌性的數(shù)字文明。

(本刊記者:夏 昕)

責編:王敦果

一審:王敦果

二審:蔣茜

三審:周韜

來源:新湘評論

我要問