Přeskočit na obsah

Dezinformace: Od lží k manipulacím chování

Dezinformace – tvorba a šíření

Autor: Josef Holý

Dezinformace jsou víc než jen pouhá lež; jde o záměrné vytváření a šíření nepravdivých nebo zmanipulovaných informací za účelem zmatení cílové skupiny obyvatel (definice NATO). 

Na rozdíl od tzv. “misinformací”, které jsou často šířeny neúmyslně, se dezinformace vyznačují právě záměrem klamat. Úspěšné dezinformační kampaně jsou obvykle dobře plánované. Vedle tvorby nepravdivého nebo zavádějícího obsahu tvoří jejich součást i dobře promyšlená strategie jeho šíření s cílem ovlivnit široké publikum.

Porozumění dezinformacím proto vyžaduje rozpoznání jejich dvou klíčových složek: vytváření nepravdivého nebo zavádějícího obsahu a strategické šíření tohoto obsahu. Právě správná kombinace těchto složek umožňuje účinně klamat a manipulovat s vnímáním veřejnosti, přičemž oba tyto aspekty významně mění umělá inteligence (AI). 

Komoditizace tvorby pomocí AI

Generativní umělá inteligence zlevnila tvorbu vysoce kvalitního obsahu od textu, přes zvuk, až po video. Vysoká kvalita v tomto případě znamená, že vytvořený obsah je a nadále bude stále méně rozeznatelný od autentického obsahu vytvořeného lidmi. 

Rychlý pokrok v AI navíc povede k postupnému zlepšování kvality a realističnosti generovaného obsahu. Obsah generovaný AI proto bude jak pro jednotlivce, tak i pro automatizované systémy téměř nemožné identifikovat, což bude představovat výzvu pro zachování integrity informací v digitálním věku.
Spolu s rozšířenějším používáním těchto nástrojů a jejich integrací do dalších aplikací a služeb navíc poroste i objem syntetického obsahu, čímž se zároveň zvýší riziko  šíření účelových dezinformací.

Distribuční výhoda zavedených sítí

Aktéři s již existujícími distribučními sítěmi mají v šíření dezinformací výhodu, protože disponují funkčními kanály, jejichž prostřednictvím lze dezinformace efektivně distribuovat. 

Zavedené sítě mají často velké počty loajálních sledujících, kteří obsahuz těchto  zdrojů důvěřují. Jakmile jsou do těchto sítí zavedeny lživé, nebo zavádějící informace se správným emočním nábojem, mohou se rychle šířit mimo jiné i díky zapojení a interakcím uživatelů.

Informační platformy – vyhledávače a sociální sítě – používají k hodnocení a zobrazování obsahu složité algoritmy. Dezinformační aktéři, kteří těmto algoritmům rozumí, s nimi mohou manipulovat, aby zajistili a zvýšili dosah svých dezinformačních kampaní. Techniky jako např “keyword stuffing”, používání populárních hashtagů a vytváření obsahu, který vyvolává silné emocionální reakce dezinformacím pomáhají dostat se na přední místa výsledků vyhledávání a personalizovaných feedů, čímž se zvyšuje jejich dosah a dopad.

Dalším způsobem, který dezinformační aktéři využívají k rychlému šíření dezinformací, je použití botnetů, neboli sítí automatizovaných účtů. Boty lze naprogramovat tak, aby lajkovali, sdíleli, komentovali a jinak interagovali jak s obsahem, tak s dalšími uživateli, což vytváří iluzi popularity a důvěryhodnosti.
Velké jazykové modely navíc dodají botům “inteligenci”. Z jednoduchých programů, které následují předem daná pravidla, se tak stávají inteligentní agenti se schopnostmi dynamického vedení dialogu v rámci online diskusí.

Aktéři bez zavedených distribučních sítí naproti tomu čelí významným výzvám. Musí najít způsoby, jak prorazit a upoutat pozornost cílového publika – ať už   hackováním hodnotících algoritmů, využitím virových marketingových technik nebo pokusy o infiltraci existujících sítí ke zvýšení vlastního dosahu. 

Distribuční výhoda zavedených sítí poukazuje na to, že  řešení netkví pouze v potírání tvorby dezinformací, ale také v rozrušení mechanismů, kterými se šíří. Účinná protiopatření proto musí brát v potaz  nejen samotný obsah, ale především i kanály a sítě používané k jeho šíření. Podobně jako u organizovaného zločinu spočívá i boj s dezinformacemi v identifikaci a analýze sítí a toků v nich.

Od dezinformací k behaviorální manipulaci

Fotka:  Hartono Creative Studio, Unspash

Fotka: Hartono Creative Studio, Unspash

Skutečná síla dezinformací spočívá v jejich schopnosti manipulovat chování prostřednictvím  rafinovaných a často zákeřných metod. To přesahuje binární debatu o tom, co je pravda a co lež, a stává se doménou psychologických manipulací.

Cílem psychologických manipulací je  změnit vnímání a způsoby přemýšlení skrze ovlivňování chování, které povede ke kýženým dopadům v reálném světě. Těmi mohou být například ovlivnění výsledků voleb, podněcování protestů nebo občanských nepokojů, či manipulace chování spotřebitelů za účelem ekonomického zisku. 

Konečným cílem je dosáhnout hmatatelného vlivu na společnost motivací  celé skupiny obyvatel k činům, které odpovídají cílům manipulativní kampaně. Tyto cíle však nemusí vést  ku prospěchu těchto skupin.

Opakovaným podáváním zkreslených verzí událostí či smyšlených (lživých) faktů jsou tvořeny nové narativy ovlivňující veřejné mínění. Dochází ke změně vnímání, která je zvláště účinná, pokud se napojí na existující emoce a předsudky, které v cílové populaci již existují.

Ty mohou zahrnovat například konfirmační zkreslení, neboli upřednostnění informací, které potvrzují předchozí přesvědčení, nebo emocionální spouštěče, jako je strach, hněv a empatie. Využitím těchto zranitelností mohou být lidé nasměrováni nejen ke změně pohledu, ale také k jednání, o němž by jinak neuvažovali.

Manipulace chování pro každého

Generativní umělá inteligence nejen snižuje náklady na tvorbu klamavého obsahu, ale také demokratizuje metody a nástroje potřebné pro sofistikovanou manipulaci s lidským chováním. Velké jazykové modely (LLM) a další technologie umělé inteligence umožňují pochopení a ovlivnění lidského chování, které lze využít pro prospěšné i škodlivé účely.

Velké jazykové modely mohou například simulovat jednotlivce i skupiny, a to včetně jejich psychometrických profilů včetně osobnostních rysů, preferencí, obav, strachů a motivace. 

Manipulátoři mohou na základě těchto informací přizpůsobit svůj obsah na míru cílovému publiku. Pokud například určitá demografická skupina vykazuje obavy či úzkost z ekonomické nestability, umělá inteligence může generovat a distribuovat obsah, který tyto obavy zesiluje. Výsledkem je  konkrétní chování, jako je hlasování pro určitého kandidáta nebo zapojení do protestních akcí.

Zatímco doposud těmito manipulativními schopnostmi disponovali pouze státní aktéři, vojenští dodavatelé, popřípadě specializované agentury, generativní AI je dává k dispozici doslova každému.

 Podobnou behaviorální manipulaci bude navíc kvůli škálovatelnosti nástrojů AI  možné provádět v masivním měřítku. Aktéři s funkčními distribučními sítěmi budou moci distribuovat klamavý a personalizovaný obsah stovkám a tisícům jednotlivců. 

Systémy AI je možné neustále vylepšovat na základě dat získaných z předchozích kampaní. Analýzou příslušných metrik budou tyto systémy moci zdokonalovat své strategie v reálném čase a optimalizovat dopad jejich dezinformačních kampaní.

Kognitivní bezpečnost a právo nebýt manipulován

Pojem kognitivní bezpečnost označuje ochranu rozhodovacích procesů jednotlivců a skupin před manipulací.
Historicky byla základní úlohou státu fyzická bezpečnost a ochrana zdraví a majetku občanů a občanek. V digitálním věku by se stát měl snažit chránit a posilovat i integritu a nezávislost jejich rozhodování.
Proto bychom měli uznat a zavést nové základní lidské právo: právo nebýt manipulován.

I když je umělá inteligence zjevně katalyzátorem rizika, může také hrát zásadní roli při zlepšování kognitivní bezpečnosti následnými způsoby:

  1. Ochrana informačních toků: Agenti umělé inteligence mohou vyhodnocovat příchozí obsah v reálném čase a odfiltrovat klamavé nebo manipulativní informace dříve, než se dostanou k uživatelům a uživatelkám.
  2. Podpora kognitivní bezpečnosti: Díky pochopení psychologického profilu jednotlivce, včetně kognitivních zranitelností a předsudků, mohou agenti umělé inteligence vést s uživateli a uživatelkami pravidelný dialog, který jim pomůže zůstat v kontaktu s realitou.
    Například – tato nedávná studie z MIT ukázala, že dialogy s umělou inteligencí mohou trvale snížit přesvědčení o konspiračních teoriích tím, že konverzaci přizpůsobí na míru jednotlivci.

 

Komoditizace nástrojů pro manipulaci s chováním řízených umělou inteligencí představuje pro společnost velkou výzvu. Spolu s tím, jak se tyto technologie stávají vyspělejšími a přístupnějšími, zvyšuje se možnost jejich zneužití. Je proto důležité vyvinout robustní etická pravidla, regulační rámce a technologická opatření ke zmírnění rizik spojených s dezinformacemi a manipulací s chováním, které  umělá inteligence činí dostupnějšími.