「我對畢生工作感到後悔!」AI教父Geoffrey Hinton離開Google:他為何對AI悲觀?

入職Google 10年後,AI教父Hinton選擇離職。對於造就了如今AI技術繁榮的神經網路,Hinton表示:這是我畢生的後悔。

深度學習泰斗、神經網路之父Geoffrey Hinton突然宣布離職谷歌。

紐約時報的報導中,Hinton直接警示世人:注意,前方有危險,前方有危險,前方有危險!

而正是對人工智能風險深深地擔憂,讓這位深度學習大佬直言:「我對自己的畢生工作,感到非常後悔。」

如今,距離Hinton入職谷歌,剛好十年。

對於Hinton此舉,有人甚至勸說,「應該將關注人工智慧安全常態化,而不必辭去工作」、「 這更應該是你留下來的理由。因為世界是不會停止的,像你這樣的偉大人物應該堅持下去,並將人工智能發展的更好」、「你應該勸說你的學生Yann LeCun和Ilya Sutskever。」。

對於Geoffrey Hinton辭職,網友認為他應該留下來關注AI安全問題。圖片來源:36氪

值得一提的是,ChatGPT背後真正的英雄正是OpenAI的聯合創始人兼首席科學家Ilya。

科技圈連署籲暫停AI研發,Geoffrey Hinton態度備受關注

被稱為「AI教父」的Geoffrey Hinton,一直都是該領域最受尊敬的先驅之一。

今年3月末,萬名大佬簽字發出連署信,呼籲暫停訓練比GPT-4更強大的AI六個月。

圖靈三巨頭中,Bengio高調簽名、LeCun旗幟鮮明地反對,唯有Hinton一言不發,耐人尋味地保持沈默。而Hinton提出離職的時間,正是在此之後的4月份。

從他的推特上可以看出,無論是最近GPT-4等超強AI引發的巨大爭議,還是谷歌高層的劇烈動蕩,Hinton都始終保持緘默,不發一言。

許多人關注著這位AI教父的態度。

在CBS的一次採訪中,Hinton表示「我們幾乎已經讓電腦學會如何自我改進了,這很危險,我們必須認真考慮,如何控制它。」

從人工智慧的開創者到末日預言者,Hinton的轉變,也標示著科技行業正處於幾十年來最重要的一個拐點。先驅的沈痛反思,讓我們終於不能再掩耳盜鈴,假裝沒有看見AI可能給人類社會引發的深刻改變和巨大危機了。

蓋茨等許多大佬認為,ChatGPT可能與上世紀90年代初網絡瀏覽器一樣重要,並可能在藥物研究、教育等領域帶來突破。 與此同時,令許多業內人士不安的是,他們擔心自己所做的研究,正在向外釋放某種危險。

Geoffrey Hinton宣布離開Google。圖片來源:36氪

因為生成式人工智慧可能已經成為產生錯誤訊息的工具。並在未來的某個時候,可能會對人類構成威脅。在Hinton看來,如何防止壞人利用它做壞事,我們還未能找到方法。

在3月底呼籲暫停超強AI六個月的公開信發出幾天後,人工智慧促進協會的19位領導人也發布了公開信,警告AI的風險。

其中就包括微軟的首席科學官Eric Horvitz,而微軟已在一系列產品中(包括Bing搜索引擎中)部署了OpenAI的GPT技術。

在喧囂的反對浪潮中,人工智慧教父Hinton卻並未在這兩封信上簽名。他說,自己在辭去工作之前,並不想公開批評谷歌,或其他公司。忍到上個月,Hinton終於下定決心,通知谷歌自己即將辭職。

選擇離職谷歌後,Hinton終於可以暢所欲言地談論AI的風險了。

我對我的畢生工作,感到十分後悔。
 
我只能這樣安慰自己:即使沒有我,也會有別人。

上周四,他與谷歌母公司Alphabet的CEO皮蔡(Sundar Pichai)通了電話,但他表示不便透露此次談話的細節。

作為一家大公司,谷歌對於AI的態度一向保守,甚至保守到,眼睜睜看著自己在聊天AI機器人之戰中被甩在後面。

早在2015年,谷歌的圖像識別AI曾將黑人標記為「大猩猩」,招致的批評讓谷歌成為驚弓之鳥。

在OpenAI推出Dall-E 2、名震全球之前,谷歌就有類似模型,但並沒有發布,因為谷歌認為需要對AI生成的內容負責。

而早在2021年,谷歌就已有了類似ChatGPT的LaMDA聊天機器人,但谷歌始終未發布。直到2022年11月底,OpenAI憑ChatGPT占盡風頭。

如今,谷歌首席科學家Jeff Dean在一份聲明中表示:「我們仍然致力於對人工智慧採取負責任的態度,我們正在不斷學習了解新出現的風險,同時也在大膽創新。」

開啟歷史,見證歷史:以神經網路研究獲得圖靈獎

1972年,Hinton在愛丁堡大學開始了他的研究生生涯。 在那裡,他首次開始研究神經網絡——一種通過分析數據來學習技能的數學系統。

當時,很少有研究人員相信這個觀點。但這成了他畢生的心血。

圖片來源:36氪


 

2012年,Hinton和他兩名學生Ilya Sutskever和Alex Krishevsky建立了一個神經網路,可以分析數千張照片,並自學識別花、狗和汽車等常見物體。神經網路成為他與兩名學生共同創建的公司DNNresearch背後的突破性概念,該公司最終在2013年被以4400萬美元收購。

2018年,Geoffrey Hinton、Yann LeCun和Yoshua Bengio一起因對神經網路的研究獲得了2018年的圖靈獎,而神經網路正是ChatGPT、Bard等聊天機器人背後的奠基性技術。而Hinton的學生Ilya Sutskever,也在後來成為OpenAI首席科學家。

大約在同一時間,谷歌、 OpenAI和其他科技公司開始構建從大量數字文本中學習的神經網路。那時的Hinton認為,這是機器理解和產生語言的一種強大方式。當然不得不承認,比起人類處理語言的方式,神經網路還是力不能及。

2022年,隨著谷歌和OpenAI 利用大量數據構建超強AI。Hinton的觀點發生了重大轉變。他仍然認為這些系統在某些方面不如人類的大腦,但它們在其他方面正在超越人類的智力。

GPT-4發布當天,Hinton曾表示,

毛蟲吸取了營養之後,就會化繭為蝶。而人類提取了數十億個理解的金塊,GPT-4,就是人類的蝴蝶。

Hinton稱讚的背後,讓許多人看到超強人工智慧系統的智力已經非同尋常。

對此,Hinton談到人工智慧技術時表示,隨著科技公司改進人工智慧系統,它們變得越來越危險。

看看五年前和現在的情況,如果還要繼續傳播這項技術,後果就太可怕了!。

在谷歌十年生涯中,Hinton一直看好谷歌在人工智慧技術上謹慎的態度。 他表示,直到去年,谷歌一直扮演著這項技術的「合適管家」角色,謹小慎微地不去發布可能造成危險的AI。

這恰恰解釋了,為啥谷歌在這波人工智能浪潮中落後的原因。 但是現在,微軟為其必應搜索引擎接入GPT-4的能力,已經讓谷歌焦急地不得不做點什麽。

Hinton稱,科技巨頭們正在進行一場可能無法阻止的競爭。

他眼下擔心的是,網路上將充斥著虛假的照片、影片和文本,人們也無法去辨別什麽是真實的,什麽是虛假的內容。 他甚至還擔心,人工智能技術遲早會顛覆就業市場。

如今,像ChatGPT這樣的聊天機器人往往能很好地輔助人類工作,甚至取代律師助理、私人助理、翻譯、以及其他處理死記硬背任務的人。未來,他表示自己很擔憂,GPT-4叠代會對人類構成威脅,強AI從大量數據中能夠學到意想不到的行為。

人工智慧系統不僅可以生成代碼,而且自己運行代碼。前段時間爆火的Auto-GPT就是一個非常典型的例子。

他擔心有一天真正的自主武器ーー那些殺人機器人ーー會成為現實。

上世紀80年代,Hinton曾是卡內基梅隆大學的電腦科學教授,但因為不願接受五角大樓的資助,他選擇了離開CMU,前往加拿大。當時,Hinton強烈反對在戰場上使用AI,他將其稱為「機器人士兵」。

在一些人看來,類似的系統實際上比人類更聰明。Hinton表示自己曾經認為,這太離譜了,最起碼要30-50年,甚至更久才能實現。

而現在,我不再那麽想了。

許多其他專家,包括Hinton的許多學生和同事,說這種威脅還僅是一種假設。

他指出,谷歌和微軟,以及其他公司之間的競爭,將升級為一場全球性競賽。如果沒有某種全球性的監管,這場競賽將不會停止。但他表示,這也不是絕對的。與核武器不同,我們無法知道哪個公司或國家,是否在秘密研究這項技術。

對AI看法太悲觀?Geoffrey Hinton辭職下一個會是誰?

有網友認為,Hinton對於的AI的看法太悲觀了。

「我見過的ChatGPT積極應用案例遠多於消極的,但現在的趨勢是把AI描繪成邪惡的煉金術。這些擔憂是合理的,我們會學習,我們會糾正它,然後我們會繼續前進。 」


 

圖片來源:36氪

甚至有網友將其比為天網,但我們還不能將其關閉。「人工智慧就像潘多拉的魔盒一樣,一旦打開就無法關閉。」

還有人對谷歌「負責任」這一觀點提出異議: 包括,使用Breitbart訓練AI模型;讓負面訊息在YouTube上大肆傳播(反過來又為推薦算法提供依據);散布有關安全和隱私的科學假訊息;開除專家 。

圖片來源:36氪

也有人提出疑問,谷歌和DeepMind合並這一事,與此相關嗎? 最後也有網友說,連Hinton都離職了,下一個會是?


 
責任編輯:蘇祐萱

主文來源:數位時代_36氪
 
ECDA資料中心編輯