Firefly miał być inny. No i jest – równie problematyczny
W marcu 2023 roku Adobe wystąpiło z wielką pompą, prezentując Adobe Firefly jako przełomowe narzędzie AI, które miało być inne od wszystkich pozostałych. Obiecywali bezpieczeństwo komercyjne, gwarantowali, że ich modele są trenowane wyłącznie na danych, do których Adobe ma pełne prawa. To miała być odpowiedź na rosnące obawy o prawa autorskie w erze generatywnej sztucznej inteligencji.
Co miało wyróżniać Firefly na tle konkurencji? Adobe chwalił się, że w przeciwieństwie do innych firm, oni nie “kradną” prac artystów z internetu. Zamiast tego, ich AI miał być karmiony wyłącznie licencjonowanymi obrazami z Adobe Stock oraz treściami z domeny publicznej. Brzmiało to jak muzyka dla uszu designerów i firm, które obawiały się pozwów o naruszenie praw autorskich.
Dowiedz się więcej: Czym jest Google Gemini?
Dlaczego designerzy mieli mu zaufać? Bo Adobe to przecież bastion branży kreatywnej, firma, która przez dziesięciolecia budowała narzędzia dla artystów. Jeśli ktoś miał zrozumieć potrzeby twórców i stworzyć “etyczne AI”, to właśnie oni. Przynajmniej tak nam mówili.
Bloomberg odkrywa brudy – AI trenowane na AI
Ale jak to zwykle bywa z korporacyjnymi obietnicami, diabeł tkwił w szczegółach. Rachel Metz z Bloomberg przeprowadziła śledztwo, które pokazało prawdziwe oblicze “etycznego” Firefly. Okazało się, że Adobe wcale nie było tak czyste, jak chciało się wydawać.
Najważniejsze odkrycie? Co najmniej 5% danych treningowych Firefly to obrazy wygenerowane przez inne systemy AI – w tym Midjourney, DALL-E i Stable Diffusion. To oznacza, że Adobe, które tak dumnie odcinało się od “kradzieży” cudzych prac, samo korzystało z owoców tej kradzieży, tylko przez pośredników.
Wewnętrzne źródła Adobe, które rozmawiały anonimowo z Bloomberg, ujawniły konflikty w firmie dotyczące tej praktyki. Niektórzy pracownicy wyrażali obawy, że firma podważa własne obietnice dotyczące etycznego AI. Ale najwyraźniej głosy te zostały zignorowane w pogoni za szybkim rozwojem technologii.
Adobe Stock – backdoor dla cudzej własności?
Jak AI-generowane obrazy trafiły do bazy treningowej Firefly? Przez Adobe Stock – platformę, która miała być gwarancją “czystości” danych. Problem w tym, że Adobe Stock pozwalał użytkownikom uploadować obrazy wygenerowane przez AI, a system moderacji najwyraźniej nie radził sobie z ich identyfikacją.
To utworzyło perfekcyjny backdoor – Adobe mogło twierdzić, że używa tylko licencjonowanych treści z własnej platformy, jednocześnie “przypadkowo” wchłaniając obrazy stworzone przez konkurencyjne systemy AI. Czy to była świadoma strategia, czy po prostu niekompetencja? Trudno powiedzieć, ale skutek był ten sam.
Artyści zaczęli znajdować swoje “przerobione” prace w wynikach generowanych przez Firefly. Obrazy, które nigdy nie trafiły bezpośrednio do Adobe Stock, ale zostały “przetworzone” przez inne AI i następnie ponownie wykorzystane. To jak pranie brudnych pieniędzy, tylko w świecie praw autorskich.
“To nie bug, to feature” – Adobe broni się przed krytyką
Gdy Bloomberg ujawnił te praktyki, Adobe nie zaprzeczyło faktom, ale próbowało je racjonalizować. Mat Hayward, dyrektor ds. AI generatywnego w Adobe, argumentował, że używanie obrazów AI do trenowania kolejnych modeli to sposób na “poprawę jakości” systemu.
Oficjalne stanowisko Adobe brzmiało mniej więcej tak: “Tak, używamy obrazów AI, ale to pomaga nam lepiej zrozumieć, jak generować treści zgodne z oczekiwaniami użytkowników”. Innymi słowy – to nie bug, to feature. Hipokryzja w najczystszej postaci.
Jako plaster na rany sumienia, Adobe oferuje ubezpieczenie Enterprise dla klientów biznesowych, które ma chronić przed pozwami o naruszenie praw autorskich. Ale czy to wystarczy? To jak sprzedawanie samochodu z wadliwymi hamulcami i oferowanie ubezpieczenia na wypadek wypadku.
Co to znaczy dla branży kreatywnej?
Sprawa Firefly pokazuje, że mit “czystego” AI definitywnie upadł. Jeśli nawet Adobe, które miało największe zasoby i motywację do stworzenia etycznego systemu, nie potrafiło tego zrobić, to kto może?
Czy w ogóle istnieje etyczne generowanie obrazów? Coraz więcej ekspertów uważa, że nie. Każdy system AI w jakiś sposób korzysta z pracy innych ludzi, często bez ich wiedzy czy zgody. Różnica polega tylko na tym, jak bardzo firmy są szczere co do swoich praktyk.
Przyszłość praw autorskich w erze AI wygląda ponuro. Jeśli nawet “etyczne” firmy jak Adobe uciekają się do takich praktyk, to cała branża kreatywna musi się przygotować na fundamentalne zmiany w sposobie myślenia o własności intelektualnej.
Firefly pokazał jedno – nawet giganci nie potrafią stworzyć “czystego” AI. Pytanie brzmi: czy w ogóle ktoś próbuje? A może cała ta gadka o etyce to tylko marketing, a prawdziwy cel to jak najszybsze zdominowanie rynku, bez względu na koszty dla artystów i twórców?
“`
