Si mashtrohet teknologjia

“BBC”

Jemi në vitin 2022. Je duke ecur me një makinë që drejtohet vetë në një shëtitje përreth qytetit. Makina afrohet tek tabela “Stop” që e ka kaluar 100 herë të tjera më parë, por këtë radhë nuk ngadalëson dhe nuk frenon. Për ty tabela duket e njëjta, por për makinën duket si diçka tërësisht ndryshe. Pak minuta më parë, pa dijeninë tënde apo të makinës, dikush ka ngjitur një shenjë të vogël tek tabela, e padukshme për syrin e njeriut, por e pashmangshme për teknologjinë që drejton makinën.
Me fjalë të tjera? Vetëm një shenjë e vogël e vendosur në tabelë mjafton që makina ta “shohë” atë si diçka tërësisht ndryshe dhe të reagojë ndryshe. Mund të duket si diçka e ekzagjeruar, por studimet gjithmonë e më të shumta na tregojnë se si inteligjenca artificiale mund të mashtrohet shumë lehtë, duke e detyruar të shohë diçka tërësisht ndryshe nga sa percepton syri i njeriut. Teksa makineritë dhe algoritmet nga të cilat mësojnë përpiqen të futen në rrugë, financat apo kujdesin shëndetësor, shkencëtarët kompjuterikë shpresojnë të gjejnë mënyra më eficente për t’i mbrojtur teknologjitë nga sulmet “armiqësore”, përpara se dikush të arrijë t’i shkatërrojë ato me të vërtetë.
“Është diçka që ka filluar të rrisë shqetësimet tona përsa i përket aftësisë për të mësuar të makinerive dhe inteligjencës artificiale, veçanërisht për shkak se algoritmet janë duke u përdorur gjithmonë e më shumë në jetën e përditshme”, thotë Daniel Lowd, asistent profesor i shkencave kompjuterike dhe të informacionit në Universitetin e Oregonit.
“Nëse një spam arrin të penetrojë sistemin ose bllokohen disa e-mail-e, nuk është fundi i botës. Por nga ana tjetër, nëse varesh nga një sistem vizual i makinës pa shofer, i cili duhet të dijë rrugën ku po shkon dhe duhet të shmangë aksidentet, atëherë rreziku i dështimit është më i madh”. Nëse një makinë e zgjuar nuk funksionon siç duhet ose hakohet, varet kryesisht nga mënyra se si algoritmet e makinës “shohin” botën që i rrethon. Në këtë mënyrë, nëse nuk mësohet siç duhet, makina mund ta shikojë një panda si ujk ose një autobus shkolle si avion.
Në një eksperiment të zhvilluar pikërisht për këtë shqetësim, kërkuesit në Francë dhe Zvicër treguan se si turbullimi mund ta detyrojë një kompjuter ta shohë një ketër si dhelpër apo një filxhan kafeje si dollap. Si mund të ndodhë kjo?
Imagjinoni një fëmijë që përpiqet të mësojë të dallojë numrat nga njëri-tjetri. Teksa sheh secilin numër, përpiqet të mësojë karakteristikat e veçanta që ka: numri një është i gjatë dhe i hollë, gjashta dhe nënta kanë secila një rreth, ndërsa teta ka dy, e kështu me radhë. Pasi kanë parë sasinë e majftueshme të shembujve, fëmijët arrijnë të dallojnë me shpejtësi numrat e tjerë si katra, treshi apo dyshi – edhe në rastet kur shkrimi dhe madhësia e numrave nuk është paksa e ngjashme me numrat e njëjtë që kanë parë dhe mësuar në të kaluarën.
Algoritmet e makinerive mësojnë si të lexojnë botën përmes një procesi pak a shumë të njëjtë. Shkencëtarët ushqejnë kompjuterin me qindra e mijëra shembuj (zakonisht të etiketuar) për çdo gjë që ata duan që makineria të identifikojë dhe të njohë në të ardhmen. Teksa makineria fillon të shqyrtojë të gjitha të dhënat – për shembull, ky është një numër, ky nuk është – fillon të njohë edhe tiparet që e ndihmojnë të gjejë përgjigjen që i nevojitet.
Me kalimin e kohës dhe pas testimeve të shumta, makineria arrin me sukses të deklarojë, “Ky është numri pesë!”, me një saktësi të pagabueshme. Në këtë mënyrë, si fëmijët njerëzorë, ashtu edhe kompjuterët, mund të mësojnë të njohin dhe identifikojnë një gamë shumë të gjerë objektesh, që nga numrat, tek macet, varkat apo fytyrat individuale të çdo personi.
Por ndryshe nga fëmijët njerëzorë, kompjuteri nuk i kushton asnjë vëmendje detajeve të nivelit të lartë si veshët me push të maces apo formës specifike këndore të numrit katër. Kompjuteri me pak fjalë, nuk merr në konsideratë imazhin e plotë. Kompjuteri shikon më shumë pikselët individualë të një fotografie dhe kërkon mënyrën më të shpejtë për të diferencuar objektet nga njëri-tjetrin.
Nëse shumica e numrave një që ka shqyrtuar kanë pasur një piksel të zi në një pikë të caktuar dhe disa piksel të bardhë në një vend tjetër, atëherë makineria mund të vendosë se objekti që po sheh është numri një në bazë të pikselave që ka shqyrtuar. Tani le të rikthehemi përsëri tek tabela “Stop”. Me një ndryshim të paperceptueshëm nga syri i njeriut në pikselët e një imazhi – ose përmes “turbullimit” siç e quajnë shkencëtarët – kompjuteri mund të mashtrohet dhe bindet se tabela që ka përballë është diçka tërësisht ndryshe.
Kërkimet e ngjashme të zhvilluara nga Laboratori i Inteligjencës Artificiale në Zhvillim në Universitetin e Wyoming dhe atë të Cornell, kanë arritur të prodhojnë një sërë iluzionesh optike për inteligjencën artificiale. Këto imazhe çorientuese me forma abstrakte dhe ngjyra nuk kanë asnjë kuptim për njerëzit, por janë menjëherë të identifikueshme nga kompjuterët si gjarpërinj dhe pushkë. Kjo sugjeron se si inteligjenca artificiale mund të shohë diçka dhe të mashtrohet plotësisht, duke parë diçka tërësisht ndryshe nga realiteti.
Kjo dobësi e madhe është e zakonshme dhe është vërejtur në një gamë të gjerë algoritmesh të makinerive dhe inteligjencës artificiale. “Asnjë nuk pretendon se algoritmet mund të mashtrohen dhe të jenë të gabueshëm”, thotë Yevgeniy Vorobeychik, asistent profesor në shkencat kompjuterike dhe inxhinierinë kompjuterike në Universitetin Vanderbilt. “Jetojmë në një botë multidimensionale tepër të ndërlikuar dhe algoritmet fatkeqësisht janë të fokusuar vetëm në një pjesë të vogël të saj”.
Voyobeychik është i bindur plotësisht se, nëse këto dobësi të inteligjencës artificiale ekzistojnë me të vërtetë, atëherë dikush do të gjejë patjetër mënyrën për t’i shfrytëzuar. Me siguri dikush e ka bërë tashmë. Për këtë mjafton të marrim në konsideratë filtrat e spameve ose programet automatike që duhet të identifikojnë dhe të shkatërrojnë menjëherë çdo e-mail të dëmshëm. Spamet mund të arrijnë ta kapërcejnë lehtësisht murin e sigurisë kompjuterike duke ndryshuar pamjen vizuale të fjalëve (për shembull nga Viagra në Vi@gra) ose duke renditur fjalë “të mira” që zakonisht gjenden në postën elektronike të sigurtë.
Sipas studimeve mbi algoritmet dhe mënyrat që përdorin spamet për të penetruar në postën tonë elektronike, zakonisht përdoren fjalët si “i kënaqur”, “unë” ose “shumë mirë”. Ndërkohë, spamet janë përpjekur kohët e fundit të shmangin edhe fjalët që kompjuteri i identifikon automatikisht si spame, siç janë “çmim”, “telefon celular”, “lotari” ose “fitues”.
Megjithatë, këtu nuk jemi duke diskutuar mënyrat më të mira për të ruajtur adresën e postës elektronike nga spamet. Çfarë mund t’i lejojë hakerëve të bëjnë kjo dobësi e teknologjisë? Makina pa shofer që nuk ngadalëson përballë tabelës “Stop” është shembulli më ideal që përmendet shpesh nga ekspertët e teknologjisë në këtë situatë. Të dhënat armiqësore mund të lejojnë penetrimin e përmbajtjeve pornografike në kompjuterin e çdokujt duke mashtruar filtrat e sigurisë. Të tjerë mund të përpiqen të rrisin shifrat në një llogari bankare ose hakerët mund të mashtrojnë sigurinë dixhitale dhe të futen në sistemin kompjuterik të çdo kompanie apo institucioni.
Hakerët dhe sulmuesit kibernetikë mund të zbulojnë mënyra nga më të ndryshmet për të krijuar të dhëna armiqësore nëse kanë kopjen e një algoritmi të makinerisë që duan të mashtrojnë, por këtë nuk e bëjnë vetëm për të penetruar brenda në sistem. Ata mund të zgjedhin vetëm të sulmojnë herë pas here, duke lëshuar versione të ndryshme të e-mail-eve apo imazheve mashtruese për të çarë murin mbrojtës. Me kalimin e kohës ata mund të jenë të aftë të gjenerojnë një version tërësisht të ndryshëm, një version që mëson se çfarë kërkojnë “të mirët” dhe prodhon të dhëna që i mashtron ata.
“Njerëzit i kanë manipuluar sistemet kompjuterike që në kohën kur u prezantuan për herë të parë”, thotë Patrick McDaniel, profesor i shkencave kompjuterike në Universitetin e Pensilvanisë. “Nëse njerëzit i përdorin këto teknika gjerësisht, mund ta bëjnë edhe pa e kuptuar ne”. Por nuk janë vetëm hakerët ata që përpiqen të mashtrojnë teknologjinë nën dritën e diellit. Dobësia e inteligjencës artificiale mund të rezultojë e dobishme edhe për ata që duan t’i shmangen monitorimit dixhital të teknologjisë moderne.
“Nëse je një disident politik brenda një regjimi shtypës dhe do të kesh mundësi të zhvillosh aktivitete pa u vënë nën shënjestër, aftësia për të shmangur përgjimin e automatizuar mund të jetë një përdorim pozitiv”, thotë Lowd.
Në një projekt të publikuar në tetor, kërkuesit e Universitetit Carnegie Mellon ndërtuan një palë syze që mund të çorientojnë sistemin e njohjes së fytyrës, duke e bërë kompjuterin të ngatërronte aktoren Reese Witherspoon me Russell Crowe. Mund të duket qesharake, por një teknologji e tillë mund të jetë e dobishme për dikë të dëshpëruar që kërkon të shmangë censurën e njerëzve në pushtet.
Nga ana tjetër, çfarë mund të bëjë një algoritëm për të mbrojtur veten nga mashtrimet? E vetmja mënyrë për ta shmangur këtë është të kesh një model perfekt dhe të saktë gjatë gjithë kohës”, thotë Lowd. Edhe nëse arrijmë të ndërtojmë një inteligjencë artificiale të aftë sa qeniet njerëzore, bota do të përmbante përsëri raste të dyshimta, për të cilat zgjidhja nuk do të ishte aq e thjeshtë.
Algoritmet e makinerive zakonisht vlerësohen në bazë të saktësisë së tyre. Një program që i identifikon objektet 99 për qind të rasteve është pa dyshim më cilësor se ai që arrin të gjejë përgjigjen e saktë vetëm 6 në 10 raste. Por disa ekspertë argumentojnë se duhet të matet edhe mënyra se si një algoritëm arrin të përballet me rastet e sulmeve kibernetike. Sa më i fortë të jetë përballë sulmeve, aq më mirë, pavarësisht saktësisë.
Një tjetër zgjidhje mund të jetë që programet të sprovohen. Duke krijuar shembuj të ndryshëm të sulmeve në laborator në bazë të asaj që mendohet se mund të bëjnë sulmuesit, algoritmet mund të pajisen me sistemet e duhura të mbrojtjes. Kjo mund të ndihmojë për t’i bërë më të sigurt me kalimin e kohës, në rast se sulmet e testuara janë të ngjashme me ato që do të hasen në jetën reale.
McDaniel sugjeron se makineritë nuk duhen lënë të punojnë plotësisht në mënyrë autonome dhe se kontrolli i njeriut është i domosdoshëm në fazën ku ndodhemi. Programet kanë përsëri nevojë të kalojnë në fazë të vazhdueshme verifikimi dhe ekspertët sugjerojnë se puna e inteligjencës artificiale duhet monitoruar gjatë gjithë kohës nga njerëzit, veçanërisht kur bëhet fjalë për aplikacione sensitive, siç janë ato që përdoren në punën e përditshme të kujdesit shëndetësor apo gjykatave. “Sistemet kompjuterike janë mjete që duhet të arsyetojnë. Duhet të tregohemi të zgjuar për imputin që i japim dhe rezultatin që marrim nga ato”, thotë ai. “Nuk duhet ta trajtojmë kompjuterin si orakullin e të vërtetës, si një mjet të pagabueshëm”.

Përgatiti:
KLARITA BAJRAKTARI