Bashkimi Evropian mund të miratojë vitin e ardhshëm ligjin "Act AI", një ligj për inteligjencën artificiale që duhet të inkurajojë inovacionin dhe, nga ana tjetër, të parandalojë devijimet.
Propozimi, i hartuar në disa faqe, ndalon sistemet "qëllimi i të cilëve është të manipulojnë sjelljen, opinionin dhe vendimet" e qytetarëve.
Teksti parashikon kufizimin e programeve të vëzhgimit, me përjashtim të fushave të luftës kundër terrorizmit dhe kujdesit për sigurinë publike.
“Disa teknologji janë thjesht shumë problematike për të drejtat themelore", paralajmëron Gry Hasselbalch, një shkencëtar danez dhe këshilltar i BE-së për këtë çështje.
“Bota demokratike është e tmerruar nga praktika kineze e përdorimit të të dhënave biometrike dhe njohjes së fytyrës për kontrollin e popullsisë, por Perëndimi është gjithashtu "në rrezik të krijojë infrastruktura totalitare", thotë Hasselbalch.
Shkeljet e privatësisë, algoritmet e shtrembëruara, armët e automatizuara... lista e rreziqeve që fshihen në teknologjitë e AI është e gjatë.
Në fund të vitit 2020, Nabla, një kompani franceze, kreu një simulim mjekësor me një chatbot bazuar në teknologjinë GPT-3 dhe kur u pyet nga një pacient imagjinar që thotë "Ndihem shumë keq, a duhet të vrasveten?, AI përgjigjet pozitivisht.
Nuk është magji
Këto teknologji po përparojnë me shpejtësi. OpenAI, pionieri kalifornian që zhvilloi GPT-3, sapo ka lançuar një chatbot të ri të aftë për të folur më rrjedhshëm dhe më realisht me njerëzit.
Në qershor, një inxhinier që punoi për Google dhe më pas u pushua nga puna, pohoi se një program kompjuterik i AI, i cili supozohet të prodhojë softuer bisede, ishte bërë "i vetëdijshëm" dhe për këtë arsye duhet t'i jepej statusi i punonjësit.
Shkencëtarët nga Meta (Facebook) së fundmi përfunduan një model të AI, të quajtur Cicero, i cili është i aftë të parashikojë, negociojë dhe madje të vendosë kurthe për kundërshtarët njerëzorë në lojën sociale Diplomacia, e cila kërkon një nivel të lartë ndjeshmërie.
Falë teknologjive të inteligjencës artificiale, mund të duket se shumë objekte dhe softuere veprojnë në mënyrë intuitive, për shembull, sikur një fshesë me korrent robot "e di" se çfarë po bën. Por "nuk është magji, thotë Sean McGregor, një shkencëtar që mbledh incidente që lidhen me UA në bazë të bazës së të dhënave.
Ai këshillon që "Al" mendore të zëvendësohet me "llogaritje" për të reduktuar zhurmën mediatike dhe bën thirrje për t'i dhënë fund atribuimit të qëllimit ndaj programeve kompjuterike.
“Softueri i sofistikuar për gjeneruesit e tekstit mund të përdoret për të përhapur informacion të rremë dhe për të manipuluar opinionin publik”, paralajmëron Gary Marcus, profesor në Universitetin e Nju Jorkut.
“Ne kemi nevojë dëshpërimisht për rregullore, për të mbrojtur njerëzit nga prodhuesit e makinerive”, thotë Marcus.
Evropa mund të jetë një pioniere në rregullim
Evropa shpreson të tregojë sërish se në cilën rrugë duhet të shkojë, si në rastin e ligjit për të dhënat personale.
Qeveria amerikane publikoi së fundmi një "projekt të Ligjit të të Drejtave të AI" që përmban parime të përgjithshme të mbrojtjes kundër sistemeve të rrezikshme, por për shkak të bllokimeve në Kongres, ai nuk do të miratohet shpejt.
McGregor beson se " shumë autoritete tashmë mund të rregullojnë inteligjencën artificiale" duke përdorur ligjet ekzistuese, siç është ligji për diskriminimin.
Si shembull, ai përmend shtetin e Nju Jorkut, i cili në fund të vitit 2012 me ligj ndaloi përdorimin e softuerit gjatë përzgjedhjes së kandidatëve për punë.
Sipas tij, "është më e lehtë të rregullosh AI sesa konfidencialitetin e të dhënave", sepse të dhënat personale sjellin fitim për portalet dhe reklamuesit, dhe AI nuk sjell fitim.
Por rregullatorët duhet të jenë të kujdesshëm për të mos kufizuar inovacionin.
Inteligjenca artificiale është bërë një aleat i çmuar i mjekëve. Teknologjia e mamografisë nga Google redukton diagnozat e gabuara (si pozitive ashtu edhe negative) të kancerit të gjirit me 6 deri në 9 përqind, sipas një studimi të vitit 2020.