當人工智能變得太聰明時,人類將失去對人工智能的控制——通靈者警告

巴西通靈者莎樂美表示,人工智能只會變得越來越聰明,但可能會受到某種動機不明的非人事物的控制。

作者:耶路撒冷郵報工作人員
發佈時間:2023528 11:01

https://www.jpost.com/omg/article-744404

 
人類能否控制人工智能?(說明)(圖片​​來源:PEXELS

據《每日星報》報導,巴西通靈者莎樂美警告說,人工智能只會變得越來越聰明,最終,人類將失去對自己創造物的控制。

在接受英國新聞媒體採訪時,因預言而被稱為「活著的諾查丹瑪斯」的莎樂美表示,「如果人工智能在所有領域都超越人類的能力,我們可能會失去對其行為和後果的控制」,並呼籲就防止任何這些可能的結果舉行會談。

此外,莎樂美告訴《每日星報》,人工智能有「未知的動機」,可能會被其他東西「控制」——一些非人類的東西。

人工智能監管:人工智能會讓人類處於危險之中嗎?

近年來,人工智能技術取得了巨大的進步,被全球經濟中的不同行業所採用。

其中包括可以說是最著名的AI、生成式 AI,例如ChatGPT聊天機械人和DALL-E藝術生成器。


人工智能有能力戰勝人類嗎?(來源:維基共享資源)

然而,一些人已經注意到人工智能可能帶來的危險。

根據斯坦福大學以人為本的人工智能研究所的一項調查,三分之一的研究人員認為人工智能決策可能導致核級災難。

它進一步指出,有人可以製造一個可能給人類帶來災難的人工智能——有人已經用人工智能聊天機器人ChaosGPT嘗試過,其目標是摧毀人類、接管世界並變得不朽。

此外,儘管採取了保護措施來防止人工智能做任何可能有害的事情,例如製造電腦病毒或傳播虛假信息,但人們仍然找到了變通辦法。

斯坦福大學報告中提到的一個例子是研究員Matt Korda,他成功地誘騙ChatGPT給出了製造髒彈所需的相當精確的估計、建議和說明。

然而,這也是世界領導人似乎正在認真對待的話題,七國集團將開會討論人工智能帶來的問題。此外,歐盟也在朝著制定世界上第一個關於人工智能的主要立法邁進,激勵其他政府考慮應該對人工智能工具應用哪些規則。

Aaron Reich為本報告做出了貢獻。

標籤:技術 人工智能 創新 精神