Padělky vytvořené umělou inteligencí budou zřejmě neodhalitelné

Ilustrační foto. Zdroj: Pixabay
Life Technologie 20. 02. 2024

Padělky vytvořené umělou inteligencí budou zřejmě neodhalitelné

V jedné internetové reklamě britský premiér Sunak vyjadřuje podporu aplikaci, kterou údajně vyvinul podnikatel Elon Musk a s níž si diváci mohou „spořit“. Video je samozřejmě falešné, problém ale nadmíru skutečný. Informaci přinesl web The Economist.

Reklama byla vygenerována pomocí umělé inteligence. A je jen jednou z více než stovky, které britská firma Fenimore Harper Communications zachytila v prosinci a lednu.

Odborníci jsou skeptičtí

Jak takové podvody odhalit, je živým tématem mezi výzkumníky v oblasti umělé inteligence. Mnozí z nich se nedávno účastnili NeurIPS, jedné z největších konferencí v tomto oboru, která se konala v New Orleans.

Řada firem už dnes nabízí software, jehož cílem je odhalit média vyrobená strojově. Tvůrci velkých modelů umělé inteligence mezitím hledají způsoby, jak své výstupy „opatřit vodoznakem“, aby bylo možné snadno odlišit skutečné obrázky, videa nebo texty od strojově generovaných.

Takové technologie se však zatím neukázaly jako příliš spolehlivé. Znalci umělé inteligence se zdají být ohledně jejich vyhlídek dokonce přímo skeptičtí. Z průzkumu, který časopis The Economist provedl mezi delegáty konference NeurIPS, se z 23 dotázaných 17 lidí domnívalo, že média generovaná umělou inteligencí budou nakonec nezjistitelná.

Ani detekční software…

Detekční software se opírá o myšlenku, že modely AI zanechají stopu. Buď se jim nepodaří dostatečně kvalitně reprodukovat některý aspekt skutečných obrázků, videí či textu generovaného člověkem, nebo dokonce přidají něco nadbytečného. A budou to dělat dostatečně často na to, aby si chyby mohl všimnout jiný software.

Takovéto poznávací znaky však už existují, i když je pro člověka stále obtížnější je odhalit. Stejně jako lze stroje vycvičit, aby spolehlivě rozpoznaly kočky nebo rakovinné nádory na lékařských snímcích, dokážou rozlišovat mezi skutečnými obrázky a obrázky vytvořenými umělou inteligencí.

Zdá se však, že jim to nejde tak dobře, jak bychom doufali. Detekční software je náchylný jak k falešně pozitivním výsledkům (chybně označuje lidský obsah jako vytvořený umělou inteligencí), tak k falešně negativním výsledkům (nechává věci vytvořené strojem projít bez povšimnutí).

… ani vodoznaky

Pokud je snaha dodatečně odhalit počítačem vytvořená média příliš složitá, další možností je označit je už předem digitálním vodoznakem. Stejně jako u papírového druhu jde o to přidat rozlišovací znak, který je dostatečně nečitelný tak, aby neohrozil kvalitu textu nebo obrázku, ale který je zřejmý každému, kdo ho hledá.

Mnohé metody označování obrázků vodoznakem zahrnují úpravy pixelů, například změnu jejich barev. Tyto změny jsou příliš „podprahové“ na to, aby si jich všiml lidský pozorovatel, počítače je zachytit ale umí. I přes to všechno v září loňského roku vědci z Marylandské univerzity publikovali článek, ve kterém tvrdí, že žádná ze současných metod vodoznakování není spolehlivá.

Už předtím, v červenci, ale americká vláda ovšem oznámila „dobrovolnou dohodu“ s několika firmami zabývajícími se umělou inteligencí, včetně OpenAI a Google, na zvýšení investic do výzkumu vodoznaků. Mít nedokonalá ochranná opatření je určitě lepší než nemít žádná.

Autor: Petr Pláteník

Další články