You are currently viewing Adobe Firefly – etyczne AI? Chyba żartujesz

Adobe Firefly – etyczne AI? Chyba żartujesz

 

Firefly miał być inny. No i jest – równie problematyczny

W marcu 2023 roku Adobe wystąpiło z wielką pompą, prezentując Adobe Firefly jako przełomowe narzędzie AI, które miało być inne od wszystkich pozostałych. Obiecywali bezpieczeństwo komercyjne, gwarantowali, że ich modele są trenowane wyłącznie na danych, do których Adobe ma pełne prawa. To miała być odpowiedź na rosnące obawy o prawa autorskie w erze generatywnej sztucznej inteligencji.

Co miało wyróżniać Firefly na tle konkurencji? Adobe chwalił się, że w przeciwieństwie do innych firm, oni nie “kradną” prac artystów z internetu. Zamiast tego, ich AI miał być karmiony wyłącznie licencjonowanymi obrazami z Adobe Stock oraz treściami z domeny publicznej. Brzmiało to jak muzyka dla uszu designerów i firm, które obawiały się pozwów o naruszenie praw autorskich.

Dowiedz się więcej: Czym jest Google Gemini?

Dlaczego designerzy mieli mu zaufać? Bo Adobe to przecież bastion branży kreatywnej, firma, która przez dziesięciolecia budowała narzędzia dla artystów. Jeśli ktoś miał zrozumieć potrzeby twórców i stworzyć “etyczne AI”, to właśnie oni. Przynajmniej tak nam mówili.

Warto przeczytać:OnlyFans – wszystko, co musisz wiedzieć o platformie subskrypcyjnej

Bloomberg odkrywa brudy – AI trenowane na AI

Ale jak to zwykle bywa z korporacyjnymi obietnicami, diabeł tkwił w szczegółach. Rachel Metz z Bloomberg przeprowadziła śledztwo, które pokazało prawdziwe oblicze “etycznego” Firefly. Okazało się, że Adobe wcale nie było tak czyste, jak chciało się wydawać.

Przeczytaj:  Co wiemy o iPhone 17 Pro Max? Wszystkie plotki i przecieki na rok przed premierą

Najważniejsze odkrycie? Co najmniej 5% danych treningowych Firefly to obrazy wygenerowane przez inne systemy AI – w tym Midjourney, DALL-E i Stable Diffusion. To oznacza, że Adobe, które tak dumnie odcinało się od “kradzieży” cudzych prac, samo korzystało z owoców tej kradzieży, tylko przez pośredników.

Wewnętrzne źródła Adobe, które rozmawiały anonimowo z Bloomberg, ujawniły konflikty w firmie dotyczące tej praktyki. Niektórzy pracownicy wyrażali obawy, że firma podważa własne obietnice dotyczące etycznego AI. Ale najwyraźniej głosy te zostały zignorowane w pogoni za szybkim rozwojem technologii.

Adobe Stock – backdoor dla cudzej własności?

Jak AI-generowane obrazy trafiły do bazy treningowej Firefly? Przez Adobe Stock – platformę, która miała być gwarancją “czystości” danych. Problem w tym, że Adobe Stock pozwalał użytkownikom uploadować obrazy wygenerowane przez AI, a system moderacji najwyraźniej nie radził sobie z ich identyfikacją.

To utworzyło perfekcyjny backdoor – Adobe mogło twierdzić, że używa tylko licencjonowanych treści z własnej platformy, jednocześnie “przypadkowo” wchłaniając obrazy stworzone przez konkurencyjne systemy AI. Czy to była świadoma strategia, czy po prostu niekompetencja? Trudno powiedzieć, ale skutek był ten sam.

Warto przeczytać:Jak Airwaves przekuło internetowe opinie w porywającą kampanię

Artyści zaczęli znajdować swoje “przerobione” prace w wynikach generowanych przez Firefly. Obrazy, które nigdy nie trafiły bezpośrednio do Adobe Stock, ale zostały “przetworzone” przez inne AI i następnie ponownie wykorzystane. To jak pranie brudnych pieniędzy, tylko w świecie praw autorskich.

“To nie bug, to feature” – Adobe broni się przed krytyką

Gdy Bloomberg ujawnił te praktyki, Adobe nie zaprzeczyło faktom, ale próbowało je racjonalizować. Mat Hayward, dyrektor ds. AI generatywnego w Adobe, argumentował, że używanie obrazów AI do trenowania kolejnych modeli to sposób na “poprawę jakości” systemu.

Przeczytaj:  Portal Dailyweb.pl - czym jest i co na nim znajdziesz?

Oficjalne stanowisko Adobe brzmiało mniej więcej tak: “Tak, używamy obrazów AI, ale to pomaga nam lepiej zrozumieć, jak generować treści zgodne z oczekiwaniami użytkowników”. Innymi słowy – to nie bug, to feature. Hipokryzja w najczystszej postaci.

Jako plaster na rany sumienia, Adobe oferuje ubezpieczenie Enterprise dla klientów biznesowych, które ma chronić przed pozwami o naruszenie praw autorskich. Ale czy to wystarczy? To jak sprzedawanie samochodu z wadliwymi hamulcami i oferowanie ubezpieczenia na wypadek wypadku.

Co to znaczy dla branży kreatywnej?

Sprawa Firefly pokazuje, że mit “czystego” AI definitywnie upadł. Jeśli nawet Adobe, które miało największe zasoby i motywację do stworzenia etycznego systemu, nie potrafiło tego zrobić, to kto może?

Czy w ogóle istnieje etyczne generowanie obrazów? Coraz więcej ekspertów uważa, że nie. Każdy system AI w jakiś sposób korzysta z pracy innych ludzi, często bez ich wiedzy czy zgody. Różnica polega tylko na tym, jak bardzo firmy są szczere co do swoich praktyk.

Przyszłość praw autorskich w erze AI wygląda ponuro. Jeśli nawet “etyczne” firmy jak Adobe uciekają się do takich praktyk, to cała branża kreatywna musi się przygotować na fundamentalne zmiany w sposobie myślenia o własności intelektualnej.

Firefly pokazał jedno – nawet giganci nie potrafią stworzyć “czystego” AI. Pytanie brzmi: czy w ogóle ktoś próbuje? A może cała ta gadka o etyce to tylko marketing, a prawdziwy cel to jak najszybsze zdominowanie rynku, bez względu na koszty dla artystów i twórców?

“`

Rafał Wyrzykowski

Strateg contentu i dziennikarz technologiczny, dla którego kod źródłowy innowacji to ludzie i ich historie. Od ponad dekady śledzi polską branżę IT oraz marketingu, rozmawiając z founderami, deweloperami i wizjonerami, którzy zmieniają naszą rzeczywistość. Wierzy, że Polska to epicentrum technologicznej energii w Europie a jego misją jest odkrywanie i opisywanie firm, które nadają rytm tej zmianie.