Последниве неколку години видовме огромен пораст не само во квалитетот на генерираните медиуми, од текст до аудио, слики и видео, туку и во тоа колку евтино и лесно може да се создадат тие медиуми. Истата алатка што му помага на концептуален уметник да создаде фантастични чудовишта или вселенски бродови, или му дозволува на не-матичен говорник да го подобри својот деловен англиски, може да биде злоупотребена за некој да биде оштетен или измамен.
Ова се некои од најчестите измами во кои се користи вештачка интелигенција:
Клонирање на гласови на блиски од семејството или пријатели
Синтетичките гласови постојат со децении, но само во последната година или две технолошките напредоци овозможија нов глас да се генерира од само неколку секунди аудио. Тоа значи дека секој чиј глас некогаш бил јавно емитуван — на пример, во вестите, на YouTube видео или на социјалните медиуми — е ранлив и може да му биде клониран гласот.
Измамниците веќе ја користат оваа технологија за да создадат уверливи лажни верзии на саканите или пријателите. Овие гласови можат да кажат било што, но најчесто се користат за барање помош.
На пример, родител може да добие говорна порака од непознат број што звучи како нивниот син, велејќи дека му ги украле работите додека патувал, некоја личност му дозволила да го користи телефонот за да ги контактира родителите да му испратат пари на оваа адреса. Има ситуации на измамници кои тврдат дека некој близок има проблеми со автомобил и треба да плати за поправка, има медицински проблеми или е повреден итн.
Овој вид измама веќе е направен користејќи го гласот на Претседателот на САД, Џо Бајден. Ги фатија сторителите, но идните измамници ќе бидат повнимателни.
Како да се борите против клонирање на глас?
Прво, не се трудете да препознаете лажен глас. Тие стануваат подобри секој ден, и постојат многу начини да се прикријат сите недостатоци. Дури и експертите се случува да бидат измамени.
Сè што доаѓа од непознат број, адреса на електронска пошта или акаунт треба автоматски да се смета за сомнително. Ако некој вели дека е ваш пријател или сакана личност, јавете им се на начинот на кој обично го правите тоа. Тие веројатно ќе ви кажат дека се добри и дека тоа е (како што сте претпоставиле) измама.
Измамниците обично не се обидуваат пак ако се игнорирани — додека член на семејството веројатно ќе го направи тоа. Во ред е да оставите сомнителна порака непрочитана додека размислувате.
Извор: Pixabay / icsilviu
Персонализирани фишинг и спам преку електронска пошта и пораки
Сите добиваме спам повремено, но со вештачката интелигенција за генерирање текст станува возможно да се испраќаат масовни е-пораки прилагодени на секој поединец.
Може да добиете порака со „Кликнете тука за да ја видите вашата фактура!“ измамничките е-пораки со очигледно страшни прилози кои изгледаат како да се направени со малку труд може да се препознаат. Но, со малку контекст, тие одеднаш стануваат многу веродостојни, користејќи последни локации, купувања и навики за да изгледаат како вистинска личност или вистински проблем. Опремен со неколку лични факти, еден јазичен модел може да персонализира генерички нацрт на овие е-пораки до илјадници приматели за неколку секунди.
Така, она што некогаш беше „Почитувани, вашата фактура е во прилог“ станува „Здраво Марија! Јас сум од тимот за промоции на Букинг. Хотелот што го гледавте неодамна сега е со 50% попуст! Кликнете на овој линк за да го искористите попустот.“ Едноставен пример, но сепак со вистинско име, неодамнешната посета на сајтот, навиките за купување на Марија кои е лесно да се дознаат, општа локација (исто така) и слично, одеднаш пораката станува многу помалку очигледна измама и поверодостојна.
Овој вид персонализиран спам порано мораше да се прави од слабо платени луѓе во т.н. „дигитални фарми“. Сега може да се направи масовно од вештачка интелигенција со подобри вештини за пишување од многу професионални copywriters.
Како да се борите против спам е-пораки?
Како и со традиционалниот спам, внимателноста е вашето најсилно оружје. Но, не очекувајте да препознаете генериран текст од човечки напишан текст во реалниот свет, особено ако е напишан на англиски јазик. Предноста на македонскиот е што јазичните модели се уште не го владеат совршено па од недостатокот на кратки заменски форми и мешањето на машки и женски род може да се посомневате дека содржината не е напишана од човек.
Иако текстот може да биде одлично напишан, овој вид измама сè уште има основен предизвик – да ве натера да отворите сомнителни прилози или линкови. Како и секогаш, освен ако не сте 100% сигурни во автентичноста и идентитетот на испраќачот, не кликајте и не отворајте ништо. Ако сте дури малку несигурни — а ова е добра за развивање на интуиција — не кликајте и побарајте мислење од некој околу вас.
Извор: Pexels / ThisIsEngineering
Измама при идентификација и верификација
Поради бројните „протекувања“ на податоци во последните неколку години може да се каже дека речиси сите ние имаме значителен број лични податоци што се достапни на darkweb. Ако следите добри онлајн безбедносни практики, опасноста помала бидејќи ги менувате лозинките често, сте активирале повеќефакторска автентикација итн. Но, генеративната вештачка интелигенција може да претставува нова и сериозна закана во оваа област.
Со толку многу достапни податоци за некого на интернет, а за многумина и со неколку аудио фајлови од нивниот глас, сè полесно станува да се создаде ВИ персона што звучи како целната личност на измамата и има пристап до многу од фактите што се користат за верификација на идентитетот.
Размислете вака. Ако имате проблеми со логирање, не можете правилно да ја конфигурирате вашата автентикациона апликација или го изгубите телефонот, што би направиле? Веројатно ќе повикате корисничка служба — и тие ќе го „потврдат“ вашиот идентитет користејќи некои тривијални факти како вашиот датум на раѓање, телефонски број или матичен број. Дури и понапредните методи како „направи селфи“ стануваат полесни за измама.
Агентот за корисничка поддршка — за кој исто не знаеме дали е бот со вештачка интелигенција — многу веројатно ќе и дозволи на таа лажна персона да ги има сите привилегии што би ги имале ако вие навистина се јавите.
Опасноста не е толку во тоа колку реалистична би бил оваа лажна персона, туку дека е лесно за измамниците да прават ваков вид напади врз многумина и често. Порано овој вид сајбер напад со имитација беше скап и одземаше многу време, и како последица на тоа ограничен на високовредни цели како богати луѓе и извршни директори. Денес, можете да создадете работен процес што креира илјадници агенти за имитација со минимален надзор, и овие агенти може автономно да се јавуваат на броевите за корисничка служба на сите познати сметки на една личност — или дури да создаваат нови. Само неколку треба да бидат успешни за да ја оправдаат цената на нападот.
Како да се борите против измама со идентитет?
Како и пред појавата на вештачката интелигенција која им ја олесни работата на измамниците, следење на добри безбедносни практики е вашиот најдобар сојузник. Вашите податоци веќе се во виртуелниот простор не можете да ги вратите. Но, можете да се уверите дека вашите сметки се адекватно заштитени од најочигледните напади.
Мултифакторската автентикација е најважниот чекор што секој може да го преземе. Секој вид сериозна активност на сметката веднаш оди на вашиот телефон, а сомнителните најавувања или обидите за промена на лозинки ќе се појават во вашата електронска пошта. Не ги занемарувајте овие предупредувања и не ги означувајте како спам, дури и (особено) ако добивате многу од нив.
Извор: Pexels / Pixabay
AI-генерирани дипфејкови и уцени
Можеби најстрашната форма на новата AI измама е можноста за уцени користејќи дипфејк слики од вас или од вашата сакана личност. Може да се заблагодарите на брзиот напредок во светот на отворени модели на слики за оваа футуристичка и застрашувачка перспектива. Луѓето заинтересирани за одредени аспекти на најсовременото генерирање на слики имаат создадено работни процеси не само за рендерирање на голи тела, туку и за прикачување на нив на секое лице кое може да го добијат како слика.
Но, една ненамерна последица е продолжение на измамата обично наречена „одмаздничко порно“, но поточно опишана како дистрибуирање на интимни слики без дозвола (иако како и „дипфејк“, може да биде тешко да се замени оригиналниот термин). Кога приватните слики на некој се објавени преку хакирање или одмаздољубив поранешен партнер, тие можат да се користат за уцена од трета страна која се заканува да ги објави јавно ако не се плати одредена сума.
Вештачката интелигенција ја подобрува оваа измама со тоа што не е потребно да постојат реални интимни слики. Лицето на секого може да се додаде на AI-генерирано тело, и додека резултатите не се секогаш убедливи, веројатно е доволно да ве излаже вас или други ако е пикселизирано, ниска резолуција или на друг начин делумно заматено. И тоа е сè што е потребно да се исплаши некој да плати за да ги сочува своите тајни и својата интима— иако, како и повеќето измами со уцена, првото плаќање веројатно нема да биде последното.
Како да се борите против AI-генерирани дипфејкови?
За жал, светот кон кој се движиме е таков каде лажни голи слики од речиси секого ќе бидат достапни по барање. Тоа е застрашувачко, чудно и одвратно, но за жал, не можеме да го вратиме решиме.
Никој не е среќен со оваа ситуација освен злонамерните луѓе и криминалците. Но, постојат неколку работи што одат во прилог на потенцијалните жртви. Овие модели на слики можат да произведат реалистични тела на некој начин, но како и другите генеративни AI, тие знаат само она на што се тренирани. Така, на лажните слики ќе недостасуваат какви било посебни обележја, на пример, и веројатно ќе бидат очигледно „погрешни и чудни“.
И додека заканата веројатно никогаш нема целосно да исчезне, се повеќе постојат начини за жртвите да се обратат на институции, кои законски можат да ги принудат хостовите да ги отстранат сликите или да ги забранат измамниците од сајтовите каде ги објавуваат. Како што проблемот расте, така ќе растат и правните и приватните средства за борба против измамите.
Извор: TechCrunch