
AI已掌握超凡認知人類或將淪為「手腳」?
關家亮 David Kwan AI素養顧問
https://www.facebook.com/share/p/1FgA2FZeF6/
轉載自『明報』2025年7月14日星期一
原文網址:https://news.mingpao.com/pns/%E8%A7%80%E9%BB%9E/article/20250714/s00012/1752424112412
【明報文章】人工智能(AI)處理複雜任務的能力,過去一年經歷了根本蛻變。以往AI在需要深度推理的任務中總是表現笨拙,但今天情况已截然不同。這場變革的核心,是「強化學習」(reinforcement learning)終於在語言模型中找到真正用武之地。
AI學習的躍升
過去的AI訓練,高度依賴人類主觀偏好:由人類判斷哪個答案「更好」。然而人類本身並非完美裁判,我們容易受各種認知偏見影響,傾向選擇那些言辭流暢、看似權威的答案,哪怕其內容謬以千里。
最新的突破來自「可驗證獎勵的強化學習」(reinforcement learning from verifiable reward)。這種模式的評判標準客觀而清晰:代碼能否通過所有測試?數學答案是否絕對正確?於這些能夠提供明確獎懲機制的領域,例如編程與數學,AI的能力已從一年前不如高中生水平,躍升至足以媲美甚至超越人類專家。
這意味着AI研究員已掌握一套可靠方法,只要有充足數據及精確的反饋機制,就能將AI的表現推向人類專業級水平。
白領「自動化」不再是技術問題
在前沿AI研究員眼中,AI要進步到能夠可靠地用Photoshop做複雜的多步驟圖片編輯、預訂多程機票並規劃複雜行程,甚至處理個人稅務申報等任務,已有清晰明確方向,剩下只是時間和成本問題。換言之,縱使AI底層算法不再有革命性的突破,但我們現有的技術框架也足以實現大規模白領工作自動化。其關鍵瓶頸,已轉向能否大規模蒐集特定工作流程的「海量高質量數據」,包括完整的熒幕錄影、滑鼠與鍵盤操作序列、決策路徑、電郵溝通、會議紀錄等。
目前的強化學習、模仿學習等演算法,一旦取得這些優質「養料」,便能夠高效模仿人類如何完成任務,甚至青出於藍。從經濟角度審視,為實現自動化而投入的數據蒐集與模型訓練成本,與這些白領崗位的總薪酬相比,可能只是九牛一毛。正如多名頂尖AI科學家所言,未來白領工作自動化浪潮,即使無更底層的技術創新,單憑打破數據壁壘與經濟效益驅動,已勢不可擋。
AI的「莫拉維克悖論」詛咒
當然, AI要達至全面的通用智能,仍面對幾項挑戰。例如當任務涉及超長上下文、要跨越多個文件和複雜依賴關係時,AI仍會顯得力不從心;當任務目標模糊、需大量探索和試錯時,AI亦會顯得笨拙。其核心邏輯很簡單:清晰之反饋迴路是AI表現出色的前提。此外,能源消耗與算力瓶頸也是現實制約。但坦白說,以上皆是能夠透過投入資金、匯聚人才並給予足夠時間來持續改善的工程問題。
更棘手、更具中長期挑戰性的,是「莫拉維克悖論」(Moravec’s Paradox)的詛咒:AI在棋類、編程等被視為「高級認知」的領域,已超凡入聖;惟在幼兒都能輕易掌握的精細運動協調上,卻進展緩慢。這可能導致一個怪誕的社會過渡期——AI能夠高效地自動化海量的認知型工作,但在物理世界的操作上仍需依賴人類。我們可以想像一個場景:失業的白領戴着AR(擴增實境)眼鏡,接受AI「大腦」實時指令,運用人類靈巧雙手去完成AI無法直接執行的物理任務。這個模式中,AI負責思考與決策,人類則充當其「手腳」。
這個人機共存但分工奇特的過渡階段,可能會持續數年甚至更久,直到機械人技術發展足以追上AI「大腦」,屆時人類社會的價值與社會結構都面臨重構。今天我們所見的技術突破,只是這場深刻變革的序幕而已。
作者:關家亮 (David) 是AI企業創辦人、大學AI課程導師
(本網發表的時事文章若提出批評,旨在指出相關制度、政策或措施存在錯誤或缺點,目的是促使矯正或消除這些錯誤或缺點,循合法途徑予以改善,絕無意圖煽動他人對政府或其他社群產生憎恨、不滿或敵意)
#DavidKwan #AI素養 #AI策略 #Privili #白領自動化 #淪為手腳
暫無評論