Фэйкавы ДыКапрыё (справа), зроблены прыродай, а не ШІ / Калаж: Barnorama 

Фэйкавы ДыКапрыё (справа), зроблены прыродай, а не ШІ / Калаж: Barnorama 

Інтэрнэт сёння напоўнены рознымі бязглуздымі рэкламнымі відэа, дзе напрыклад, прэм'ер-міністр Вялікабрытаніі Рышы Сунак распавядае пра «надзвычай прыбытковую» праграму, нібыта распрацаваную Іланам Маскам, з дапамогай якой гледачы могуць рэгулярна «эканоміць». Часам з’яўляецца і сам «Маск», каб пацвердзіць гэтую інфармацыю.

Гэта толькі адна з мноства падобных рэкламных аб'яў, створаных з дапамогай штучнага інтэлекту. Але не толькі знешнасць знакамітасцяў можа выкарыстоўвацца ў сумніўных мэтах. У чэрвені 2023 года Федэральнае бюро расследаванняў ЗША папярэджвала грамадскасць пра зламыснікаў, якія выкарыстоўваюць ШІ для стварэння фэйкавых відэаролікаў і выяў звычайных людзей на сэксуальную тэматыку з мэтай вымагальніцтва грошай.

Як выявіць такія падманы — гэта з'яўляецца актуальнай тэмай сярод даследчыкаў ШІ. Мноства фірмаў, ад стартапаў да вядомых тэхналагічных гігантаў тыпу Intel і Microsoft, прапануюць праграмнае забеспячэнне, якое накіравана на выяўленне машынназгенераваных медыя. Вытворцы вялікіх мадэляў ШІ тым часам шукаюць спосабы «вадзянога знака» на сваёй прадукцыі, каб можна было лёгка адрозніць рэальныя выявы, відэа ці тэкст ад згенераванага машынай.

Але такія тэхналогіі пакуль выяўляюцца не асабліва надзейнымі. Знаўцы ШІ, здаецца, змрочна ацэньваюць перспектывы. The Economist правёў апытанне дэлегатаў NeurIPS, адной з найбуйнейшых канферэнцый у галіне ШІ, якая адбылася ў Новым Арлеане ў снежні 2023 года. У выніку з 23 апытаных спецыялістаў 17 схіліліся да думкі, што медыя, створаныя ШІ, з часам стане немагчыма выявіць. Толькі адзін дэлегат сказаў, што надзейнае выяўленне будзе магчымым; астатнія пяць адмовіліся, аддаючы перавагу блізкай беларусам стратэгіі «пачакаць і паглядзець».

Праграмнае забеспячэнне для выяўлення фэйкаў абапіраецца на ідэю, што ШІ-мадэлі пакідаюць лічбавы след. Альбо ім не ўдасца карэктна перадаць некаторыя аспекты рэальных выяў і відэа ці створанага чалавекам тэксту, альбо яны дададуць штосьці лішняе — і рабіць гэта яны будуць дастаткова часта, каб іншае праграмнае забеспячэнне заўважыла памылку. Але з кожным днём найлепшыя ШІ-мадэлі робяць усё менш памылак.

Пакуль прызнакі ШІ часта ўсё яшчэ прысутнічаюць у згенераваным кантэнце, нават калі іх становіцца ўсё цяжэй заўважыць людзям. І падобна таму, як машыны можна навучыць надзейна ідэнтыфікаваць катоў або ракавыя пухліны на медычных сканаваннях, іх таксама можна навучыць адрозніваць рэальныя выявы ад тых, якія ствараюцца іх ШІ-калегамі.

Але і тут здараюцца памылкі. Праграмнае забеспячэнне для выяўлення фэйкаў схільна да ілжывых спрацоўванняў (памылкова пазначаючы «чалавечы» кантэнт як створаны штучным інтэлектам) і ілжывых адмоў (дазваляючы матэрыялам, створаным машынай, праходзіць незаўважанымі). У адным з нядаўніх даследаванняў было выяўлена, што самая эфектыўная праграма не змагла правільна распазнаць створаныя камп'ютарам выявы ў 13% выпадкаў (хоць гэты вынік і лепшы за чалавека, якія памыляўся ў сярэднім у 39% выпадкаў). Крыху лепей ідуць справы з тэкстам. Адзін свежы аналіз параўнаў 14 розных інструментаў і выявіў, што ніводзін не дасягнуў дакладнасці больш за 80%.

Калі спроба выявіць створаныя камп'ютарам носьбіты пастфактум занадта складаная, іншы мажлівы варыянт — пазначыць іх загадзя лічбавым вадзяным знакам. Ідэя складаецца ў тым, каб дадаць адметную рысу, якая досыць тонкая, каб не пагаршаць якасць тэксту або выявы, але відавочная кожнаму, хто будзе яе шукаць.

Так, многія метады нанясення вадзяных знакаў на выявы ўключаюць тонкую наладу пікселяў, напрыклад, зрух іх колераў. Змены занадта тонкія, каб іх заўважыла чалавечае вока, але іх можа ўлавіць машына. Аднак абрэзка выявы, яе паварот або нават размыццё і наступнае паўторнае даданне рэзкасці могуць выдаліць такія сляды.

Адна з груп даследчыкаў з NeurIPS прадставіла схему вадзяных знакаў пад назвай «Кольцы дрэва». Так званыя «дыфузійныя мадэлі», самы дасканалы тып праграмнага забеспячэння для генерацыі выяў, пачынаюць з запаўнення свайго лічбавага палатна выпадковым «шумам», з якога павольна ўзнікае патрэбны малюнак. «Метад дрэвавых кольцаў» убудоўвае вадзяны знак не ў гатовую карцінку, а ў гэты самы «шум» на самым пачатку. Калі праграмнае забеспячэнне, якое стварыла малюнак, запускаецца ў зваротным парадку, яно прайграе вадзяны знак разам з шумам. 

Даследчыкі адзначаюць, што гэтую тэхніку няпроста падмануць, але гэта ўсё ж не з’яўляецца немагчымым. У гонку ўзбраенняў уступаюць іншыя даследчыкі, якія імкнуцца перамагчы метады вадзяных знакаў. Так, іншая група прадставіла метад (яшчэ не рэцэнзаваны), які можа, па іх словах, сціраць вадзяныя знакі. Гэта працуе шляхам дадання элементаў новага «шуму», а затым выкарыстання іншай мадэлі ШІ для выдалення гэтага «шуму», што выдаляе зыходны вадзяны знак у працэсе. У верасні навукоўцы з University of Maryland апублікавалі артыкул (таксама яшчэ не рэцэнзаваны), у якім сцвярджалася, што ні адзін з сучасных метадаў вадзяных знакаў на выявах, уключаючы і вышэй апісаны метад «Кольцы дрэва», не з’яўляецца надзейным.

Тым не менш, у ліпені 2023 года амерыканскі ўрад абвясціў аб «добраахвотных абавязацельствах» з некалькімі фірмамі ШІ, у тым ліку OpenAI і Google, па павелічэнні інвестыцый у даследаванні метадаў вадзяных знакаў. Вядома, мець недасканалыя гарантыі і метады лепш, чым не мець іх увогуле; аднак мадэлі з адкрытым зыходным кодам, якія карыстальнікі могуць наладжваць самастойна, кантраляваць будзе цяжэй. Пакуль здаецца, што ў бітве паміж дэтэктывамі і стваральнікамі фэйкаў перавага застаецца на баку апошніх.

Чытайце таксама:

Leica выпусціла «ўстойлівую да дэзынфармацыі камеру» для заможных фотажурналістаў

Музыка, створаная штучным інтэлектам, здзівіць вас

Google-пошук уводзіць у падман і шкодзіць дэмакратыі. Тлумачым, як не даць сябе падмануць

Клас
2
Панылы сорам
0
Ха-ха
0
Ого
6
Сумна
8
Абуральна
5