Blogzine

Egy igazi bennfentes (insider) :) Guru meglátásai az MI-ről

A napjainkban zajló mesterséges intelligencia (MI) fejlesztések számos sebezhetőséget rejtenek
a részrehajló döntésektől a megmagyarázhatóság hiányán keresztül a külső támadásoknak való
kitettségig – hívta fel a figyelmet Aleksandra (Saška) Mojsilović, az IBM Research MI-kutatója
egy áprilisi kerekasztal-beszélgetésen. A New Yorkban élő szerb tudós, akinek szakterülete
az etikus mesterséges intelligencia, különösen aggályosnak tartja az MI-vel létrehozott káros
tartalmakat, például a deepfake videókat, a gyűlöletkeltő posztokat és a felhasználókat álhírek
felé terelő algoritmusokat.
Mojsilović kiemelte „Nem jó, hogy a fejlesztők a minél jobb teljesítményt tekintik az MI-tervezés
egyedüli sikerkritériumának, a közjó szempontjait is kellene építeniük céljaik közé. Ennek
érdekében az IBM Research olyan technikákat és algoritmusokat fejleszt, amelyek felmérik,
hogy az egyes rendszerek mennyire veszik figyelembe az etikus MI kritériumait, és ha
szükséges, módosítja azokat. A fejlesztések között van olyan eszköz, amely felismeri, ha egy
rendszer részrehajló döntéseket hoz (például a torz, kiegyensúlyozatlan tréningadatok miatt), és
korrigálja azokat. Van olyan, amely felfedi a rendszerek sérülékenységeit, és visszaveri a
támadásokat, és van olyan, amely segít megérteni az embereknek, hogyan jutott el az MI egy
bizonyos végkövetkeztetésre.”
A kutató meggyőződése, hogy az MI fejlődésének kulcsa az emberek és a mesterséges
intelligencia szorosabb együttműködése. „Fontos, hogy megbízzhassunk a rendszer
ajánlásaiban, amikor döntéseket hozunk.” – tette hozzá. Ennek kapcsán az IBM Research
szakértői a megbízható MI-rendszerek alábbi pilléreit azonosították:

 Igazságosság. A gépi tanulásra épülő MI rendszereket olyan adatokon kell tréningezni,
amelyek mentesek mindenféle elfogultságtól, és nem kezelnek hátrányosan egyetlen
csoportot sem.

 Biztonság. Az MI rendszereknek biztonságosnak kell lenniük, meg kell akadályozni,
hogy a tréningadatokat vagy magukat a rendszereket kívülről manipulálni lehessen.

 Megmagyarázhatóság. Az MI rendszereknek olyan döntéseket kell hozniuk, illetve
olyan javaslatokat tenniük, amelyeket felhasználóik és fejlesztőik képesek követni és
megérteni.

 Dokumentáció. Az MI rendszerek fejlesztésére, alkalmazására és karbantartására
vonatkozó minden adatot rögzíteni kell, hogy a teljes életciklusban visszakereshető és
ellenőrizhető legyen.

A pillérek közül nem elég egyet teljesíteni. Ha egy MI rendszer igazságos, de sebezhető, nem
lehet megbízni benne. Ha biztonságos, de senki sem érti az „outputját” (fekete doboz), nem
lehet megbízni benne. Vagyis mind a négy pillért egyszerre kell szem előtt tartani, és mind a
négy szempont szerint monitorozni kell a rendszerek teljesítményét. Erre kínál megoldást az
IBM FactSheet, amelyben az IBM MI-szakértői elemzik és értékelik az MI-fejlesztés során
factsheetekbe feltöltött adatokat a rendszerek működéséről, a tréningadatokról, az
algoritmusokról, a tesztelés körülményeiről és eredményeiről, az igazságossági és biztonsági
ellenőrzésekről, a felhasználási célokról vagy éppen a karbantartásról.

Az IBM Research keretein belül működő AI Foundations vezetői posztja mellett az IBM Science
for Social Good társigazgatójaként is dolgozó Aleksandra Mojsilović nevéhez közel 100
tudományos publikáció és 16 bejegyezett szabadalom kötődik. Legutóbb egy olyan, 2021
márciusában bemutatott IBM-rendszeren dolgozott, amely MI segítségével fedez fel új
peptideket. Ezeket a vegyületeket fel lehet használni az antibiotikum-rezisztens baktériumok
ellen is hatékony gyógyszerek kifejlesztéséhez, és olyan új anyagok megalkotásához, amelyek

segíthetnek a klímaváltozás elleni alkalmazkodásban vagy a hatékonyabb energiatárolásban.
Csapata új generatív MI keretrendszerét COVID-19 elleni gyógyszerhatóanyagok kutatásában is
felhasználták, és közel 3000 hatóanyagjelölt molekulát találtak.

Dr. Mojsilović munkásságáról és az IBM Research etikus MI-kutatásairól itt olvashat bővebben.

Megosztás