Často si ani neuvedomujeme ako sú naše životy čoraz viac závislé od rozhodnutí umelej inteligencie. Jej algoritmy neslúžia len pre lepšiu navigáciu po meste, alebo na triedenie elektronickej pošty. Rovnako môžu rozhodovať o našom prijatí do práce, pridelení úveru, ale aj o kvalite zdravotnej starostlivosti, či prepustení z väzenia. To sú oblasti, kde každá chyba stroja môže mať ďalekosiahle následky. O to viac, ak by boli tieto rozhodnutia neférové a systematicky poškodzovali konkrétne skupiny obyvateľstva. Ako často a prečo sa takéto situácie skutočne stávajú a čo s tým ich tvorcovia, ale aj my ako užívatelia vieme robiť? Je vôbec v ľudských silách odhaliť podobné neprávosti aj v prípade ak čelíme pokročilým a z ľudského pohľadu príliš komplikovaným algoritmom AI? A ako nám snaha vytvoriť férovú a vysvetliteľnú umelú inteligenciu pomôže lepšie pochopiť naše vlastné predsudky a skreslenia? V dnešnom diele nášho podcastu sa budeme rozprávať o tom, ako algoritmy AI môžu kopírovať ľudské chyby a prečo je dôležité im primerane rozumieť. Našim hosťom je Martin Tamajka ktorý sa zaoberá analýzou medicínskych obrazových dát a spracovaním prirodzeného jazyka s použitím umelej inteligencie. Spolu so svojimi študentmi tiež skúma metódy vysvetliteľnosti modelov AI, tak, aby boli pochopiteľnejšie pre používateľov.
Podcast pripravuje Nástupište 1-12 v spolupráci s Kempelenovým inštitútom inteligentných technológií, ktorý podporil z verejných zdrojov Fond na podporu umenia.