Za populárnymi četbotmi ako ChatGPT stoja takzvané veľké jazykové modely (LLMs). Učia sa na obrovskom množstve dát, aby na požiadanie dokázali vytvoriť obsah, ktorý od nich očakávame. No čo ak chceme tento obsah zneužiť? Práve preto majú jazykové modely vstavané aj ochranné mechanizmy.
Ako tieto ochranné mechanizmy fungujú? Aké sú spoľahlivé a ako ťažko sa dajú obísť? Ktoré jazykové modely sú bezpečné a ktoré majú čo dobiehať? Aké sú vôbec schopnosti umelej inteligencie tvoriť nové dezinformácie na požiadanie a čo ak chceme, aby ich ušila na mieru konkrétnej cieľovej skupiny ľudí?
Aj o tom v novej epizóde podcastu Disinfo Report projektu Infosecurity.sk hovorí Tonka Zsigmondová s výskumníkom Kempelenovho inštitútu inteligentných technológií Dominikom Mackom.
Infosecurity.sk prechádza na platformu Darujme.sk, kde nás môžete naďalej pravidelne či jednorazovo podporovať. Vďaka vašej pomoci dokážeme pracovať na odhaľovaní a vyvracaní dezinformácií, prispievať k ozdrave informačného prostredia a ochrane demokratických hodnôt. Za každý dar ďakujeme.