荃話題

人工智能

轉載 - 我們需要談談,AI現在到底有多強

編者按:人工智能的發展如今與我們的生活更加息息相關,AI 不再單純是實驗室中的高科技,而是以各種方式嵌入了我們的生活。在這種情況下,我們更需要對人工智能的潛力和風險進行全方位評估。本文來自編譯,希望對您有所啟發。

在過去的幾天里,我一直在玩 DALL-E 2,這是舊金山公司 OpenAI 開發的一款應用程序,可以把文字描述變成超現實的圖像。

OpenAI 邀請我在測試期試用 DALL-E 2,我很快就迷上了,花了好幾個小時的時間想出一些奇怪、有趣和抽象提示,來讓 AI 幫我出圖,比如“一幅形狀像牛角面包的郊區住宅”,“一幅兩只企鵝在巴黎小酒館喝酒的炭筆素描”。幾秒鐘內,DALL-E 2 就會輸出一些對應的圖像,通常帶有令人瞠目結舌的現實主義風格。

DALL-E 2 令人印象深刻的不僅僅是它產生的藝術作品,還有它產生藝術作品的方式。這些圖片並不是由現有的網絡圖片合成的,而是通過一種名為“diffusion”的覆雜人工智能過程創造出來的全新作品。這個過程是從一系列隨機的像素開始,並不斷地對其進行優化,直到圖像與給定的文本描述相匹配。而且它的改進速度很快,DALL-E 2 的圖像細節是去年才推出的第一代 DALL-E 生成的圖像的四倍。

DALL-E 2 在發布時獲得了大量關注,這也是理所當然的。這是一項令人印象深刻的技術,對任何以圖像為生的人(比如插畫師、平面設計師、攝影師等等)都有重大意義。它還提出了一些重要的問題,比如,這些人工智能生成的藝術作品將被用來做什麽,以及我們是否需要擔心虛假合成圖像的傳播。

但藝術並不是人工智能取得重大進展的唯一領域。

在過去的 10 年里(一些人工智能研究人員將這一時期稱為“黃金十年”),人工智能研究的許多領域都出現了一波進展,這是由深度學習等技術的興起,以及用於運行龐大的、計算密集型人工智能模型的專門硬件的出現所推動的。

其中一些進展是緩慢而穩定的,比如模型更大了,數據處理能力更強了,輸出的結果更好了。還有些時候,進展像是突然發生的,就像魔法一樣。

例如,就在五年前,人工智能領域最大的新聞還是 AlphaGo,這是谷歌旗下的 DeepMind 開發的深度學習模型,可以在圍棋棋類遊戲中擊敗世界上最優秀的人類。訓練人工智能贏得圍棋比賽是一件有趣的事情,但這並不是大多數人關心的那種進步。

但去年,DeepMind 的 AlphaFold(一種源自圍棋的人工智能系統)做了一件真正意義深遠的事情。它利用一個經過訓練的深度神經網絡,從蛋白質的一維氨基酸序列中預測了蛋白質的三維結構,基本上解決了所謂的“蛋白質折疊問題”,而這個問題此前已經困擾了分子生物學家幾十年。

2022 年夏天,DeepMind 宣布 AlphaFold 已經對幾乎所有已知存在的 2 億種蛋白質進行了預測,產生了一個寶貴的數據庫,這將幫助醫學研究人員在未來幾年開發新的藥物和疫苗。《科學》雜志在前一年就認識到了 AlphaFold 的重要性,將其命名為當年最大的科學突破。

人工智能在生成文本方面也取得了很大的進展。

就在幾年前,人工智能聊天機器人甚至連最基本的對話都難以進行,更不用說更困難的基於語言的任務了。
但現在,像 OpenAI 的 GPT-3 這樣的大型語言模型可以被用於編寫劇本、撰寫營銷郵件和開發電子遊戲。去年我甚至用 GPT-3 為紐約時報寫了一篇書評,而且,如果我沒有事先告訴編輯,他們可能都看不出來。

人工智能還可以寫代碼,超過 100 萬人已經注冊使用了 GitHub 的Copilot,這是一個 2021 年發布的工具,可以通過自動完成代碼段來幫助程序員更快地工作。

還有谷歌的人工智能模型 LaMDA,幾個月前上了頭條,當時谷歌高級工程師布萊克·勒莫因(Blake Lemoine)因為說 LaMDA 有知覺而被解雇了。

谷歌駁斥了布萊克·勒莫因的說法,許多人工智能研究人員對他的結論也提出了質疑。但拋開 AI 有感知的說法,LaMDA 等最先進的語言模型確實正變得越來越善於進行類似人類的文本對話,這點是毫無疑問的。

事實上,許多專家會告訴你,如今人工智能在很多方面都在變得越來越好,甚至是在語言和推理等似乎是“人類專屬”的領域。

斯坦福大學(Stanford University)年度人工智能指數報告(AI Index Report)聯合主席傑克·克拉克(Jack Clark)表示:“感覺我們正從(人工智能的)春天走向夏天。在春天,你會看到一些模糊的進步跡象,到處都是綠色的嫩芽。現在,一切都盛開了。”

在過去,人工智能的進展大多只有那些緊跟最新研究論文和會議報告的內部人士才能看到。但最近,克拉克說,即使是外行人也能感覺到不同。

克拉克說:“你過去看到人工智能生成的文字時會說,‘哇,它好像寫了一個句子。’現在你看到人工智能生成的東西,會說,‘這真的很有趣,我很喜歡讀這樣的文字,’或者‘我不知道這是人工智能生成的。’”

仍然有很多糟糕、失敗的人工智能,比如產生種族主義言論的聊天機器人,以及導致車禍的有缺陷的自動駕駛系統。即使人工智能迅速改善,通常也需要一段時間才能滲透到人們實際使用的產品和服務中。今天 Google 或 OpenAI 的人工智能突破,並不意味著你的 Roomba 掃地機器人明天就能夠寫小說。

但最好的人工智能系統現在的確非常強大,並以非常快的速度改進著,以至於矽谷的對話開始發生轉變。越來越少的專家會自信地預測,我們將有幾年甚至幾十年時間為改變世界的人工智能浪潮做好準備,相反,許多人現在認為,無論好壞,重大變化都即將到來。

Open Philanthropy 研究人工智能風險的高級分析師阿傑亞·科特拉(Ajeya Cotra)兩年前估計,到 2036 年,有 15% 的可能性會出現“變革性人工智能”(她和其他研究者將其定義為足以帶來大規模經濟和社會變革的人工智能,例如讓大多數白領工作消失)。

但在最近的一篇文章中,科特拉將這個概率提高到了 35%,理由是 GPT-3 等系統的快速改進。

科特拉告訴我:“人工智能系統可以在驚人的短時間內,從可愛而無用的玩具變成非常強大的產品。人們應該更認真地看待這一領域,人工智能可能很快就會改變世界,這可能真的很可怕。”

其實,有很多懷疑論者認為,人工智能取得進展的說法言過其實。他們會告訴你,人工智能距離擁有感知能力,或取代人類從事各種各樣的工作還遠得很。他們會說 GPT-3 和 LaMDA 這樣的模型就像是“鸚鵡”,只會盲目地重覆其訓練數據,而我們距離創造真正的 AGI(能夠自己“思考”的人工通用智能)還需要幾十年的時間。

也有一些科技樂觀主義者認為,人工智能的進步正在加速,並希望它加速得更快。他們相信,加快人工智能的改進速度,將為我們提供治療疾病、開拓太空和避免生態災難的新工具。

我不是要讓你在這場辯論中站隊。我想說的是,大家應該更密切地關注人工智能的發展。

畢竟,有效的人工智能並不會只停留在實驗室里。它以 Facebook feed 排名算法、YouTube 推薦和 TikTok “For You” 頁面的形式嵌入到了我們每天使用的社交媒體應用程序中。它也進入了軍隊使用的武器和孩子們在教室里使用的軟件中。銀行會使用人工智能來確定誰有資格獲得貸款,警察部門會使用人工智能來調查犯罪。

即使懷疑論者是對的,人工智能在許多年內都無法達到人類水平的感知能力,我們也很容易見證 GPT-3、LaMDA 和 DALL-E 2 等系統將如何成為社會的一股強大力量。幾年後,我們在互聯網上看到的絕大多數照片、視頻和文字都可能由人工智能生成。我們的在線互動可能會變得更奇怪、更令人擔憂,因為很難弄清楚哪些對話對象是人類,哪些是機器人。精通技術的宣傳者們可以利用技術大規模地制造有針對性的錯誤信息,以我們看不到的方式扭曲事實。

在人工智能的世界里,說“我們需要就人工智能風險進行一次社會對話”已是陳詞濫調,已經有很多達沃斯論壇、TED 演講、智庫和人工智能倫理委員會,正在為反烏托邦的未來草擬應急計劃。

我們缺少的是一種共享的、價值中立的方式,來談論當今的 AI 系統實際上能夠做什麽,以及這些能力帶來了哪些具體的風險和機會。

面對人工智能,我認為有三件事可以有所幫助。

首先,監管機構和政界人士需要加快步伐。

由於這些人工智能系統很多都是新產品,所以很少有政府官員有使用 GPT-3 或 DALL-E 2 等工具的第一手經驗,他們也不了解人工智能前沿領域的進展有多快。

我們已經看到了一些縮小差距的努力,例如,斯坦福大學“以人為本人工智能研究所”最近為美國國會工作人員舉辦了為期三天的“人工智能訓練營”,但我們需要更多的政界人士和監管機構對這項技術感興趣。即使是閱讀布萊恩·克里斯蒂安(Brian Christian)的《對齊問題》(The Alignment Problem)之類的書,或者了解 GPT-3 這樣的模型工作的一些基本細節,都是巨大的進步。

否則,我們可能會重蹈 2016 年大選後社交媒體公司的覆轍,矽谷的權力與華盛頓的無知發生碰撞,結果只會導致僵局和激烈的聽證會。

其次,在人工智能開發上投資數十億美元的大型科技公司(比如谷歌們、Meta們和OpenAI們)需要更好地解釋其公司正在做什麽,而不是粉飾或淡化風險。目前,許多大型 AI 模型都是在閉門開發的,使用私人數據集,只由內部團隊進行測試。當有關信息被公開時,通常不是被公司公關淡化,就是被隱藏在晦澀難懂的科學論文中。

淡化人工智能風險以避免負面反應可能是一個明智的短期策略,但如果科技公司被視為在悄悄推進與公眾利益相悖的人工智能,這些公司便將無法長期生存。如果這些公司不自願公開相關信息,人工智能工程師也應該繞過他們的老板,直接與政策制定者和記者本人交談。

第三,新聞媒體需要更好地向非專家解釋人工智能的進展。太多時候,記者們都是借助過時的科幻作品,將人工智能領域發生的事情翻譯給普通大眾。我們有時會將大型語言模型與 Skynet(《終結者》里的人工智能防禦系統)和 HAL 9000(《2001 太空漫遊》里的超級電腦)進行比較,並將具有前景的機器學習突破,簡化為“機器人來了!”這些我們認為會引起讀者共鳴的標題。偶爾,我們會在關於“基於軟件的 AI 模型”的文章中配上“基於硬件的工廠機器人”的照片——這就暴露了我們的無知。這種錯誤就像是在一篇寫自行車的文章中配上一輛寶馬的照片一樣令人費解。

從廣義上說,大多數人狹隘地看待人工智能,是因為它與我們有關,比如它會搶走我的工作嗎?在技能 X 或任務 Y 中,它比我更好還是更糟?而不是試圖理解人工智能正在發展的所有方式,以及這可能對我們的未來意味著什麽。

我會盡自己的一份力量,記述人工智能的所有覆雜性和怪異之處,而不依賴誇張的標題或好萊塢式的比喻。但我們都需要調整自己的思維模式,以便為頭腦中新的、不可思議的機器騰出空間。

原文: 我們需要談談,AI現在到底有多強


返回