據《金融時報》報道,超過800名來自全球的名人、科學家與政界人士近日聯署,呼籲各國禁止開發所謂「超級智能」(Superintelligence)系統,直到能確保其發展「安全且可控」。聯署者橫跨人工智能學界、科技業、宗教界與政治圈,反映出全球對AI失控的憂慮已進入新階段。
這份聲明由非營利組織「生命未來研究所」(Future of Life Institute, FLI)於週三發表。簽署者包括「AI教父」傑弗里.辛頓(Geoffrey Hinton)、約書亞.本吉奧(Yoshua Bengio)、百度前總裁張亞勤,以及圖靈獎得主姚期智。英國演員史蒂芬.弗萊(Stephen Fry)、美國前總統國安顧問蘇珊.賴斯(Susan Rice)、維珍集團創辦人理查德.布蘭森(Richard Branson)等名人亦名列其中。
聲明指出:「在獲得充分的科學共識與公眾支持之前,應全面禁止超級智能的研發。」這類AI被定義為「智力水平超越絕大多數人類的系統」,可能在短時間內徹底改變社會與權力結構。
根據FLI公佈的民調,僅有5%的美國人支持現行「無監管AI開發」狀況,而近四分之三的受訪者贊成政府加強AI監管。該機構主席馬克斯.泰格馬克(Max Tegmark)指出:「最大威脅不是來自他國或競爭對手,而是我們親手建造的機器。」
多家科技巨頭開發超級智能
目前,包括OpenAI、Meta、Google在內的多家科技巨頭正競逐開發「通用人工智能(AGI)」與「超級智能」的領域。這些系統被視為能在絕大多數任務上超越人類的技術終點。然而,AI倫理學者警告,一旦這類系統脫離控制,後果可能無法挽回。
事實上,早在2023年3月,特斯拉執行長伊隆.馬斯克(Elon Musk)及多位專家就曾聯署呼籲暫停AI開發六個月,但如今馬斯克旗下的xAI仍在積極推進AI訓練。此次聲明則更明確聚焦於「禁止超級智能」,並非全面封殺AI發展。
泰格馬克強調:「我們不反對AI治療癌症或提升生產力,但這些成果不必依賴超級智能來實現。」他補充說,各國無論東西方皆將AI失控視為國安威脅,「這是全球共同利益,而非零和競爭」。
目前,全球AI監管仍步履維艱。歐盟《人工智能法案》(EU AI Act)已率先分階段落實,但仍遭產業界批評「過度約束創新」。美國則由加州、猶他與德州率先頒布AI監管法。隨著名流與學界連署聲浪升高,全球AI治理的道德與政策辯論,正朝更高層次的「人類未來共識」推進。 (編輯部)