突發(fā)!AI恐將滅絕人類,350名權(quán)威簽署聯(lián)名信
現(xiàn)階段AI領(lǐng)域,波詭云譎。一邊大模型的多模態(tài)能力一天一個樣,越來越強悍;另外一邊,看著AI越來越聰明,感覺人類智慧生物的地位不保,開始尋求監(jiān)管AI,避免發(fā)生威脅人類生存的危機出現(xiàn)。
AI頭號種子GPT—4自然是首當其沖,為此ChatGPT之父Sam Altman赴白宮,闡明自己的立場和觀點。也配合政府制定AI監(jiān)管的條例和措施。
今天,又一則有關(guān)AI威脅的消息在全網(wǎng)瘋傳,其中不乏AI領(lǐng)域的專家和權(quán)威。
根據(jù)彭博社報道,非營利組織人工智能安全中心(Center for AI Safety)本周二發(fā)布簡短聲明:“降低人工智能滅絕的風險,應該與其它社會規(guī)模的風險(如大流行病和核戰(zhàn)爭)一樣,成為全球的優(yōu)先事項”。
包括 Sam Altman 在內(nèi) 350 位 AI 權(quán)威都簽署了這封聯(lián)名公開信,并對當前正在開發(fā)的 AI 技術(shù)可能會對人類構(gòu)成生存威脅擔憂。
此外還有另外兩家AI領(lǐng)先公司的CEO簽署了這一公開信:Google DeepMind 首席執(zhí)行官 Demis Hassabis和Anthropic 的首席執(zhí)行官 Dario Amodei。
其中還有 Geoffrey Hinton 和 Yoshua Bengio 兩位人工智能的“教父”。
把AI和流行病、核戰(zhàn)爭相提并論,真有一種《毀滅者》的既視感。
然而已經(jīng)不是第一次出現(xiàn)這種AI威脅的聲音了。
在上周,Sam Altman 和另外兩位 OpenAI 的高管提出應該建立類似國際原子能機構(gòu)這樣國際組織來安全監(jiān)管 AI 的發(fā)展。
早在3月,由馬斯克等人牽頭簽署的一份公開信,就表示了社會對AI存在的恐懼心理。
該信呼吁所有的 AI 實驗立即暫停研究比 GPT-4 更先進的 AI 模型,暫停時間至少 6 個月,為的就是把這些可怕的幻想扼殺在搖籃之中。
對于這一系列呼吁和公開信,一些專家認為它過分強調(diào)了人工智能帶來的風險,有些人則認同存在這種可能性,但不同意信中的建議措施。
安全人工智能中心的執(zhí)行主任丹·亨德里克斯(Dan Hendrycks)告訴《紐約時報》,5月30日發(fā)布的聲明很簡潔,沒有提出解決人工智能威脅的任何潛在方法,這是為了避免進一步產(chǎn)生分歧。
他說:“我們不想為此推出一個包含30種潛在干預措施的大菜單。如果這樣做,它會淹沒主要信息。”

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
-
7月8日立即報名>> 【在線會議】英飛凌新一代智能照明方案賦能綠色建筑與工業(yè)互聯(lián)
-
7月22-29日立即報名>> 【線下論壇】第三屆安富利汽車生態(tài)圈峰會
-
7.30-8.1火熱報名中>> 全數(shù)會2025(第六屆)機器人及智能工廠展
-
7月31日免費預約>> OFweek 2025具身智能機器人產(chǎn)業(yè)技術(shù)創(chuàng)新應用論壇
-
免費參會立即報名>> 7月30日- 8月1日 2025全數(shù)會工業(yè)芯片與傳感儀表展
-
即日-2025.8.1立即下載>> 《2024智能制造產(chǎn)業(yè)高端化、智能化、綠色化發(fā)展藍皮書》
推薦專題