編者按:本文來自微信公眾號 網(wǎng)易科技(ID:tech_163),作者:丁廣勝 袁寧,創(chuàng)業(yè)邦經(jīng)授權(quán)轉(zhuǎn)載。
毫無意外,本屆WAIC是近五年最火的一屆。吸睛元素拉滿。
有首次訪華的諾貝爾獎、圖靈獎雙料得主、AI教父Geoffrey Hinton杰弗里·辛頓。
有人氣爆表的機器人展區(qū),AI眼鏡展區(qū),直到閉館聲音響起,宇樹機器人,智元機器人,Xreal,Rokid等明顯展臺依舊擁擠不堪,人們不愿離去。
有遍地開花的AI應(yīng)用,智能汽車,數(shù)字工廠,AI生萬物,很多應(yīng)用實實在在“落”了下來,也“砸”出了新的價值。
我們看到幾乎所有參與者都激情洋溢,尤其是新興創(chuàng)業(yè)者們。你能感受到他們的熱情,與勢必要抓住歷史機遇的決心。
而作為本屆WAIC2025的“壓軸大魔王”,辛頓吸引了太多目光,他的觀點獨特而深刻。如果你恰好想知道他到底說了什么。那這份金句盤點你不容錯過。
2024年10月8日下午,約翰·霍普菲爾德(John J. Hopfield)和杰弗里·辛頓(Geoffrey E. Hinton)獲2024年諾貝爾物理學(xué)獎。
1、你會有既聰明又善良的AI,但如何訓(xùn)練它變得聰明和如何訓(xùn)練它變得善良是不同的問題。你可以有讓它善良的技術(shù)和讓它聰明的技術(shù)。它將是同一個AI,但會有不同的技術(shù)。
2、我們對詞語運作方式的理解可能是完全錯誤的。同樣,幾乎每個人都對“主觀體驗”這類術(shù)語有著強烈但完全錯誤的理論。這不是真正的科學(xué)問題,而是源于我們對心理狀態(tài)的錯誤模型。
3、他們確實很想在人工智能領(lǐng)域設(shè)立諾貝爾獎,但目前并沒有這個獎項。所以,他們就將物理學(xué)獎頒給了人工智能領(lǐng)域的貢獻者。
4、我認為人工智能對科學(xué)的幫助是顯而易見的。
5、我想最核心的建議是:若想做出真正原創(chuàng)的研究,就要尋找那些‘所有人都可能犯錯’的領(lǐng)域。
6、堅持你所相信的,直到你真正明白它為何是錯的。只是偶爾,你會繼續(xù)堅持你的信仰——而它最終被證明是正確的。重大突破正是由此而來,它們從不屬于輕易放棄之人。你必須堅持己見,即使他人并不認同。
7、如今的大語言模型就是我當年微型語言模型的 “后代”。
8、大語言模型和人類理解語言的方式相同?;具壿嬍菍⒄Z言轉(zhuǎn)化為特征,再以完美的方式整合這些特征,這正是大語言模型各層級所做的工作。
9、人類甚至可能和大語言模型一樣產(chǎn)生 “幻覺”,因為我們也會創(chuàng)造出一些虛構(gòu)的表達。
10、人類習(xí)慣了作為最智能的生物,很難想象 AI 超越人類的場景。就像養(yǎng)雞場的雞無法理解人類一樣。
11、有人認為可以在 AI 變得過強時關(guān)掉它們,但這并不現(xiàn)實。它們可能會像成年人操縱 3 歲孩子一樣操縱人類。
12、面對 AI,我們只有兩個選擇:要么訓(xùn)練它永遠不傷害人類,要么 “消滅” 它。
13、即便一個國家放棄 AI,其他國家也不會。因此,若想讓人類生存,必須找到訓(xùn)練 AI 不傷害人類的方法。
14、全球主要國家或 AI 大國應(yīng)建立一個由 AI 安全機構(gòu)組成的國際社群,研究如何訓(xùn)練高智能 AI 向善。
15、人工智能的能力已接近,甚至可能超越人類,但人類尚未掌握有效控制這些系統(tǒng)的方法。因此,共識呼吁各國加強在AI對齊與安全方向的基礎(chǔ)研究投入。