人工智能訓練資料集中發現兒童性虐待材料:報告

作者:坎蒂絲·海瑟薇
2023
1220

https://www.theblaze.com/news/child-sexual-abuse-material-found-in-ai-training-dataset-report

一份週三發表的史丹佛互聯網觀察報告發現,在用於訓練人工智慧圖像生成器的數據集中發現了數千份兒童性虐待物料。

研究人員先前認為,生成機器學習模型透過結合系統對成人色情內容和良性、非性的兒童照片的理解,創建了未成年人的露骨圖像。

最新報告「識別和消除生成機器學習訓練資料和模型中的兒少性虐待內容」顯示,人工智慧系統也在學習產生這些圖像,因為它們正在使用虐待兒童照片進行訓練。

「雖然我們先前的工作表明生成式機器學習模型可以並且確實產生兒童性虐待材料(CSAM),但該工作假設模型能夠透過結合兩個『概念』(例如兒童和露骨行為)來產生兒少性虐待內容,而不是由於接受了兒少性虐待內容本身的訓練,模型能夠理解兒少性虐待內容,」報告解釋道。

研究人員試圖揭示他們可以在LAION-5B資料集中找到多少明確的資料,這是一個用於訓練人工智慧影像產生器的索引線上圖片的大型資料庫。LAION資料集已用於訓練Stable Diffusion和谷歌的Imagen

在審查「發現大量不當內容,包括色情圖像、種族主義誹謗和有害的社會成見」後,谷歌選擇不公開該產品。

LAION-5B「基本上是透過無引導的爬行來獲取資訊」,因此「包含大量的明確內容」。

報告指出:「我們識別出 3,226個可疑兒少性虐待內容資料集條目,其中大部分已被第三方確認為兒少性虐待內容。」

由於大小、責任和版權原因,資料庫不包含實際圖像本身。相反,它存儲有關材料的元數據,包括描述和原始圖像的連結。

該報告建議從原始託管URL和資料集中刪除露骨內容。它指出,根據調查結果,圖像的刪除「已經在進行中」。

報告繼續說道:「雖然兒少性虐待內容的數量並不一定表明兒少性虐待內容的存在會極大地影響模型的輸出,超出模型結合性活動和兒童概念的能力,但它可能仍然會產生影響。」

研究人員還提到,發現的露骨材料數量明顯不足」。

據美聯社報導,該組織與加拿大兒童保護中心和其他慈善機構合作,向執法部門報告了這些內容,並將其刪除。

LAION告訴該新聞媒體,它「對非法內容採取零容忍政策,為了謹慎起見,我們已經刪除了LAION資料集,以確保它們在重新發佈之前是安全的」。

據美聯社報導,斯坦福大學互聯網觀察站的首席技術專家大衛-蒂爾(David Thiel)解釋說,這些性虐待材料之所以沒有被注意到,是因為人工智慧項目「實際上是匆忙推向市場的」。

泰爾解釋說:「在整個互聯網範圍內進行搜刮並製作資料集來訓練模型,這種做法本應僅限於研究活動,如果沒有經過更嚴格的審查,是不應該開源的。」

Stability AI 接管了Stable Diffusion的開發,並表示「已採取積極措施來降低誤用風險」。該軟體公司指出,它只託管人工智慧產品的過濾版本。

Stability AI 表示:「這些過濾器會消除模型中不安全的內容。」「通過在內容到達模型之前將其刪除,我們可以幫助防止模型生成不安全的內容。」

喜歡火焰新聞嗎?繞過審查,訂閱我們的時事通訊,並將此類報導直接發送到您的收件匣。在此註冊