To narzędzie usuwa ochronę anty-AND przed sztuką cyfrową


Żeby było jasne, naukowcy stojący za LightShed nie próbują ukraść pracy artystów. Po prostu nie chcą, aby ludzie mieli fałszywe poczucie bezpieczeństwa. „Nie będziesz pewien, czy firmy mają metody usuwania tych trucizn, ale nigdy ci nie powiedzą” – mówi Hanna Foerster, doktorantka z University of Cambridge i główny autor artykułu o pracy. A jeśli tak, może być za późno, aby rozwiązać problem.

Modele AI działają częściowo poprzez domyślne tworzenie granic między tym, co postrzegają jako różne kategorie obrazów. Szklile i nocna kaza zmieniają wystarczającą ilość pikseli, aby nacisnąć dany dzieło sztuki na tę granicę bez wpływu na jakość obrazu, powodując, że model postrzegał go jako coś, co nie jest. Te niemal niezauważalne zmiany nazywane są zaburzeniami i psują zdolność modelu AI do zrozumienia dzieła sztuki.

Glazura sprawia, że modele źle rozumieją styl (np. Interpretacja obrazu fotorealistycznego jako kreskówki). Zamiast tego nocade sprawia, że model zobaczy temat niepoprawnie (np. Interpretacja kota na rysunku jako psa). Szklika służy do obrony indywidualnego stylu artysty, podczas gdy nocestadka służy do atakowania modeli AI, które czołgają się po Internecie w poszukiwaniu sztuki.

Foerster współpracował z zespołem naukowców z Technical University of Darmstadt i University of Texas w San Antonio, aby rozwinąć Lightshed, który uczy się, jak zobaczyć, gdzie narzędzia takie jak Glaze i Nightshade rozpryskują tę cyfrową truciznę na sztukę, aby mogła ją skutecznie wyczyścić. Grupa przedstawi swoje ustalenia na Sympozjum Bezpieczeństwa Usenix, wiodącej globalnej konferencji bezpieczeństwa cybernetycznego, w sierpniu.

Naukowcy przeszkolili światło, karmiąc je dziełem sztuki z nocade, szkliwie i innymi podobnymi programami. Foerster opisuje ten proces jako nauczanie światła, które odtwarzają „tylko truciznę zatrutych obrazów”. Zidentyfikowanie granicy, ile trucizny faktycznie pomyli AI, ułatwia „umycie” tylko zatrucie.

Lightshed jest w tym niezwykle skuteczny. Podczas gdy inni badacze znaleźli proste sposoby obalenia zatrucia, LightShed wydaje się być bardziej przystosowalny. Może nawet zastosować to, czego się nauczył z jednego narzędzia anty-AI-powiedzmy, nocade-do innych takich jak mgła czy Metacloak, nie widząc ich z wyprzedzeniem. Chociaż ma pewne problemy z występem przeciwko niewielkim dawkom trucizny, są one rzadziej zabijania umiejętności modeli AI do zrozumienia sztuki podstawowej, co czyni ją winą dla sztucznej inteligencji-lub przegraną dla artystów korzystających z tych narzędzi.

Około 7,5 miliona ludzi, wielu artystów z małymi i średnimi obserwacjami i mniejszą liczbą zasobów, pobrało Glaze w celu ochrony swojej sztuki. Osoby korzystające z narzędzi takich jak Glaze postrzegają to jako ważną techniczną linię obrony, zwłaszcza gdy stan regulacji wokół szkolenia AI i praw autorskich wciąż jest w powietrzu. Autorzy światła postrzegają swoją pracę jako ostrzeżenie, że narzędzia takie jak glazura nie są trwałymi rozwiązaniami. „Może to wymagać kilku kolejnych rund próby wymyślania lepszych pomysłów na ochronę”, mówi Foerster.

Wydaje się, że twórcy Glaze i Nightshade zgadzają się z tym sentymentem: strona internetowa Noceshade ostrzegła, że narzędzie nie było odporne na przyszłość, zanim zaczęło się prace nad Lightshed. A Shan, który prowadził badania obu narzędzi, nadal wierzy, że obrona takie jak jego ma znaczenie, nawet jeśli są wokół nich sposoby.


Back To Top