Кристина Ескенази е председател на Биотехнологичен и Здравен Клъстер и Член на УС на Клъстер Изкуствен Интелект България. Разговаряхме с нея за ползите и предизвикателствата пред развитието на изкуствения интелект (AI), каква е цената му и коя я плаща, може ли AI да бъде устойчив, както и за отговорното използване на технологията.
AI се развива с изключително бързи темпове. Но всички знаем, че големите езикови модели и AI системи изразходват огромно количество енергия. Как големите технологични компании могат да намалят своя въглероден отпечатък?
Ще отговоря с цитат на един от любимите ми икономисти Уорън Бенис, който казва, че „Фабриката на бъдещето ще има двама работници. Един човек и едно куче. Човекът ще е там да храни кучето. А кучето ще е там, за да пази човека да не пипа оборудването.”
С бързите стъпки, с които изкуственият интелект навлиза във все повече сфери, мисля, че се приближаваме към едно не много утопично бъдеще. Предполагам голяма част от аудиторията на ESGnews.bg са чували за модела AlphaGo, който преди години надви човек на играта Го. Това бе нечувано и невиждано нещо до този момент. Една малка тайна обаче е, че енергията, която е била използвана, за да се пусне този модел, е 5000 повече отколкото енергията, която използва човекът, когото моделът е надвил. Изкуственият интелект не е евтин. Той използва огромни количества енергия и вода. Например за охладителната система на модела Chat GPT 3 се използва вода, колкото водата от 300 000 душа.
Изкуственият интелект също така е голям замърсител. Само за трениране на един модел се равнява на 500 коли, които извървяват 500 км. Цената е доста сериозна, но не трябва да пропускаме и неоспоримите ползи от AI. Той ни помага да оптимизираме по-добре водни и енергийни системи, да предвиждаме различни рискове и да можем да планираме по-добре своите дейности.
Може ли наистина изкуственият интелект да бъде устойчив?
Винаги, когато говорим за това колко полезен е AI, трябва да имаме едно наум за неговата цена. Напоследък с колегите от европейския AI форум говорим все по-често за зелени алгоритми, за свързани системи, за по-отговорно използване на изкуствения интелект. Моят призив към всички е не просто да използваме отговорно изкуствения интелект, но да го използваме по начин, по който да щади природата, нашите ресурси, но също така и да бъде защитен.
Трябва много да внимаваме какви данни подаваме в AI моделите. Ако ние му подаваме лични данни, не знаем кой ще използва тази информация. В САЩ вече има цели адвокатски кантори, които затварят, тъй като алгоритъмът на AI успява по-точно да свърши работата с прегледи на договори и клаузи. Знаем обаче за случаи за насочване на над 50 млн. граждани към даден кандидат. Това е нещо, което не искаме да допуснем и всеки един от нас трябва да знае каква е неговата цена.
Какви могат да бъдат последиците ако подаваме лични данни?
Една от моите шапки е на национално контактно лице по Хоризонт Европа в клъстер Здраве. Диалогът, който тече там в момента е много интересен, защото всички знаем за огромния обем от регулации, които вече се въвеждат или са въведени. Един от големите проблеми е, че голяма част от участниците, които пишат, че ще използват AI, защото печелят малко допълнителни точки, освен че улесняват работата си, не си дават сметка, че точно след година и половина, когато техният проект стартира, той ще бъде обект на законодателство. Ако вие вътре сте вкарали видеонаблюдение, разпознаване на лица, вашият AI ще бъде на ръба на закона, даже незаконен. Ако вие сте използвали изкуствения интелект да направи оценка например кой пациент какъв тип обслужване трябва да получи или насока, отново ще бъдете на ръба на закона.
Често колегите казват, че има прекалено много регулации, но истината е, че това законодателство е направено да защити нашите права. Болница в САЩ например беше глобена наскоро с много висока глоба, защото беше допуснала един такъв алгоритъм да взима решения и се оказа, че той започва да лекува хора, които не са хронично болни или са под дадена възраст, тоест той самият създава дискриминационни модели.
Има ли достатъчна информираност сред потребителите за тези рискове?
Когато си говорим с който и да е модел – Chat GPT, Gemini и т.н., трябва да знаем, че е изключително важно да внимаваме каква информация подаваме. Имаше случай, в който няколко асистента като Алекса на Google, бяха записвали потребителите без тяхното знание и съответно данните някъде се пазят по непрозрачен начин. Затова не трябва да забравяме, че това е и една черна кутия. Когато трябва да го направите такъв, че той да отговаря на законодателството и етичните норми, ЕК възприема един термин „Explainable AI” (обясним изкуствен интелект), тоест вие трябва да обясните защо използвате този AI, какви решения му давате да направи и той въз основа на какво ги взима тези решения.
Когато говорим за човешка намеса, факт е, че AI взима работните места и обезсмисля някои професии. Но наблюдаваме и един друг тренд. Голяма част от големите корпорации преди три години в бума на Chat GPT много набързо освободиха своите служители, за да ги заменят с нови AI системи, но три години по-късно виждаме, че те отново започват да търсят служители. Това оскъпява още повече дейността им по наемане и обучаване на новите системи. Нуждата от хора се оказва нещо, което е непреодолимо.
В момента един от проектите, с който се занимавам, е създаване на приложение, което подкрепя мениджъри, управляващи различни организации, да взимат информирано решения каква е цената на AI и кой модел е най-подходящ за тях. Когато говорим за употреба на AI, той е алгоритъм, но той използва и хардуер – странични устройства като камери, принтери и какво ли още не, които трябва да бъдат пригодни и да имат добра архитектура и имплементация на тази технология, за да се използват пълноценно.
Другият риск е да допуснем да работим с решение, което е на ръба на закона. Тази година ЕК е заложила още близо 15 регулации, свързани със стартъпи, квантови технологии и други, и ние трябва постоянно да се информираме за тях, за да консултираме и подготвим компаниите за регулациите и това, което предстои. Факт е обаче, че за Европа регулациите са едно много хубаво поле за раждане на иновации, които могат да преодолеят тези препятствия и предизвикателства.
Какви са основните етични дилеми, свързани с изкуствения интелект?
Регулацията за AI е приета и държавите вече я имплементират в своите законодателства. След една година тя трябва да бъде реално включена, включително и в България като част от ЕС. Това, което се опитваме да направим като клъстер и като екосистема, е да подготвим максимално много компании. Правилата са ясни и това, което предстои е всяка държава да създаде свой комитет по изкуствен интелект и да излъчи представител в европейските комисии, които ще отговарят за AI. В Австрия, Франция и Германия вече виждаме решителни стъпки на правителствата и екосистемите, от които има какво да научим.
Най-голямата асоциация за AI в Европа е Европейски AI форум, която представлява над 4000 организации от сферата на изкуствения интелект. В момента разработваме въпросник, така че всяка една организация да може да се впише и да отговаря на правилата. Документът е доста обемен, но правим по-кратки наръчници с насоки за това какво е и какво не е допустимо. В рамките на регламента се определя AI спрямо риска, който той представлява, това е част от ESG. С най-висок риск са инструментите за лицево разпознаване. Всяка една компания, която в момента разработва такова решение, по-добре да спре, или да потърси друг тип решения, които започват да излизат на пазара с аномизация, използване на блокчейн и други методи. Именно лицевото разпознаване да бъде достатъчно защитено, така че да не попада под ударите на закона.
Кой плаща цената за развитието на AI – бизнесът, обществото или околната среда?
Цената я плащаме всички. Като стартираме от бизнеса, както споменах вече има нови решения, които могат да помогнат на компаниите да не бъдат наказвани, а поощрявани за това, че използват AI и той да му помогне да се развие по най-добър начин. Разбира се, обществото също. В момента има обучения, програми за критично мислене, които стават все по-актуални и набират скорост.
Но трябва да сме наясно, че AI създава някои нови видове дискриминация. Хората, които знаят как да го използват, печелят повече за сметка на останалите. Винаги се появява и хипотезата за злонамерено използване на AI. Той е създаден от нас, за да задоволи наши потребности, да ни пести време, което можем да отделим на себе си и на близките си хора, така че да се чувстваме по-пълноценни, а не обратното.
Кои носи отговорност за употребата на AI – разработчиците, компаниите или регулаторите?
Това е големият въпрос в момента. Ако в момента AI направи грешка, например за диагноза на човек, кой носи отговорността за това? AI – не, разработчикът на AI – вероятно не. Различни държави започват да имат различна визия и препоръки по тази тема. В момента има активни над 40 етични документа от различни държави за това какво означава етичен AI, как да го използваме, кой е виновен, кой плаща цената. И всъщност отново стигаме до момента, в който в този засега неразрешим проблем, стои в центъра човека. Зад всеки един AI, който по някакъв начин има влияние върху хората, винаги стои човек, който трябва да взима решение дали изкуственият интелект е прав или не. Силата и овластяването е в човека.
Искам да завърша с още един цитат от бащата на AI Алън Тюринг: „Невъзможно е да се предвиди всяко едно решение, постъпка или дейност, която човек може да направи във всеки момент”. Как тогава да зададем тези рамки и тази предвидимост на AI. Той може да бъде обучен да бъде етичен в хипотези Х на брой, които човек му зададе. Но никой на този етап не може да предвиди колко са всичките сценарии и хипотези, които могат да се случат. Затова са регламентите и етичните кодекси, в които се залага това, което ние можем да предвидим, а именно доколко AI взима решения вместо човека. Това не може да се случи на този етап и се надявам така да продължи.





