Nightshade 防止AI藝術品模仿,致力打擊盜版 – 李梓敬 –

Nightshade 防止AI藝術品模仿,致力打擊盜版

芝加哥大學的研究人員,推出了一款名為Nightshade的工具,旨在阻礙AI模型利用藝術圖像進行學習。

該工具目前仍處於開發階段,它可以讓藝術家,巧妙地改變圖像的像素,來保護自己的作品。雖然這些微妙的變化,人眼難以察覺,卻能迷惑AI模型。

許多藝術家和創作者,對未經他們同意,就將他們的作品用於訓練商業AI產品,表示擔憂。

AI模型,主要依賴大量的多媒體資料,包括書面形式的資料和圖像,這些資料通常來自網路搜索。通過破壞這些資料,Nightshade 提供了一種打擊盜版行為的可行性方案。

當涉及數位藝術作品中時,Nightshade 會誤導AI模型,導致它們無法正確地識別出物體和場景。

例如,Nightshade 可以將狗的圖像進行像素轉化,導致AI模型將狗識別成貓。僅需投送100個錯誤樣本,就能導致AI模型穩定地出錯,比如要求AI生成一隻狗時,它卻生成了一隻貓——這證明了該工具的有效性。

這項技術不僅迷惑了AI模型,還挑戰了生成式AI的基本運作方式。通過利用AI模型中,相似詞語和相似理念的聚類方法,Nightshade 可以操縱對特定指示的回應,從而進一步削弱AI生成內容的準確性。

Nightshade由計算機科學學院的教授Ben Zhao和他的團隊開發,是其先前產品Glaze的延伸,Glaze可以隱藏數位藝術品並改變像素,從而在藝術風格上迷惑AI模型。

雖然研究人員承認, Nightshade有被濫用的可能性,但他們的主要目的是,將主動權從人工智能公司轉回藝術家手中,阻止侵犯知識產權的行為。

Nightshade 的出現,給人工智能開發者帶來了重大挑戰。這體現在,檢測和刪除被更改像素的圖像,是一項複雜的任務,因為這種像素的改變難以被察覺。

如果這些圖像,被加入到現有的AI訓練數據集中,就必須將其刪除,還有可能需要重新訓練AI模型,這對依賴盜用或使用未經授權資料的公司來說,是一個巨大的障礙。

目前,Nightshade 的研究人員,還在等待同行的評審,但他們有可能成為藝術家們,保護其創作作品的希望之光。