Unii cunoscători din domeniul tehnologiei doresc să oprească dezvoltarea continuă a sistemelor de inteligență artificială înainte ca învățarea automată a căilor neurologice să se opună intențiilor de utilizare ale creatorilor lor umani. Alți experți în informatică susțin că pașii greșiți sunt inevitabili și că dezvoltarea trebuie să continue.
Mai mult de 1.000 de tehnicieni și personalități din domeniul inteligenței artificiale au semnat recent o petiție pentru ca industria informatică să ia un moratoriu de șase luni asupra instruirii sistemelor de inteligență artificială mai puternice decât GPT-4.
Organizația non-profit Future of Life Institute a organizat petiția care solicită o încetare publică și verificabilă aproape imediată din partea tuturor dezvoltatorilor cheie. În caz contrar, guvernele ar trebui să intervină și să instituie un moratoriu. Începând cu această săptămână, Future of Life Institute spune că a strâns peste 50.000
Scrisoarea nu este o încercare de a opri toate dezvoltările AI în general. Mai degrabă, susținătorii ei doresc ca dezvoltatorii să facă un pas înapoi de la o cursă periculoasă "către modele de tip black-box imprevizibile și tot mai mari, cu capacități emergente". În timpul acestei perioade de pauză, laboratoarele de inteligență artificială și experții independenți ar trebui să dezvolte și să implementeze împreună un set de protocoale de siguranță comune pentru proiectarea și dezvoltarea inteligenței artificiale avansate.
"Cercetarea și dezvoltarea IA ar trebui să se reorienteze spre a face ca sistemele puternice și de ultimă generație de astăzi să fie mai precise, sigure, interpretabile, transparente, robuste, aliniate, demne de încredere și loiale", se afirmă în scrisoare.
Sprijinul nu este universal
Este îndoielnic că cineva va pune ceva pe pauză, a sugerat John Bambenek, principal vânător de amenințări la compania SaaS de analiză a securității și operațiunilor Netenrich.
Cu toate acestea, el observă o conștientizare tot mai mare a faptului că luarea în considerare a implicațiilor etice ale proiectelor de inteligență artificială este cu mult în urma vitezei de dezvoltare."Cred că este bine să reevaluăm ceea ce facem și impactul profund pe care îl va avea, deoarece am văzut deja câteva eșecuri spectaculoase când vine vorba de implementări nechibzuite de AI/ML", a declarat Bambenek pentru.
Tot ceea ce facem pentru a opri lucrurile în spațiul AI este probabil doar zgomot, a adăugat Andrew Barratt, vicepreședinte la firma de servicii de consultanță în domeniul securității cibernetice
"IA va fi factorul de productivitate al următoarelor două generații. Pericolul va fi să o vedem înlocuind motoarele de căutare și apoi devenind monetizată de agenții de publicitate care își plasează "inteligent" produsele în răspunsuri. Ceea ce este interesant este faptul că "vârful" de teamă pare să fie declanșat de la recenta atenție aplicată ChatGPT", a declarat Barratt pentru.
Mai degrabă decât să ia o pauză, Barratt recomandă încurajarea lucrătorilor din domeniul cunoașterii din întreaga lume să analizeze modul în care pot utiliza cel mai bine diferitele instrumente de inteligență artificială care devin din ce în ce mai ușor de utilizat de către consumatori pentru a contribui la asigurarea productivității. Cei care nu o fac vor fi lăsați în urmă.
Potrivit lui Dave Gerry, CEO al companiei de securitate cibernetică de tip crowdsourcing Bugcrowd, siguranța și confidențialitatea ar trebui să continue să fie o preocupare de top pentru orice companie tehnologică, indiferent dacă este axată sau nu pe AI. Atunci când vine vorba de IA, este esențial să se asigure că modelul dispune de măsurile de protecție necesare, de o buclă de feedback și de un mecanism de evidențiere a problemelor de siguranță.
"Pe măsură ce organizațiile adoptă rapid AI pentru toate beneficiile legate de eficiență, productivitate și democratizarea datelor, este important să ne asigurăm că, pe măsură ce sunt identificate îngrijorări, există un mecanism de raportare pentru a le scoate la suprafață, în același mod în care ar fi identificată și raportată o vulnerabilitate de securitate", a declarat Gerry.
Citește și: Hemoglobina: Ce este si ce se ascunde o valoare scazuta a acesteia?
Evidențierea preocupărilor legitime
În ceea ce ar putea fi un răspuns din ce în ce mai tipic la nevoia de reglementare a inteligenței artificiale, expertul în învățare automată Anthony Figueroa, cofondator și CTO al companiei de dezvoltare de software orientat spre rezultate Rootstrap, susține reglementarea inteligenței artificiale, dar se îndoiește că o pauză în dezvoltarea acesteia va duce la schimbări semnificative.
Figueroa folosește big data și învățarea automată pentru a ajuta companiile să creeze soluții inovatoare pentru a-și monetiza serviciile. Dar el este sceptic că autoritățile de reglementare vor acționa cu viteza potrivită și vor înțelege implicațiile a ceea ce ar trebui să reglementeze. El consideră că provocarea este similară cu cele ridicate de social media în urmă cu două decenii.
"Cred că scrisoarea pe care au scris-o este importantă. Ne aflăm într-un punct de cotitură și trebuie să începem să ne gândim la progresele pe care nu le-am avut înainte. Pur și simplu nu cred că este fezabil să se oprească ceva timp de șase luni, un an, doi ani sau un deceniu", a declarat Figueroa pentru.
Dintr-o dată, totul alimentat de inteligența artificială este următorul mare lucru universal. Succesul literal peste noapte al produsului ChatGPT al OpenAI a făcut ca lumea să se ridice brusc și să observe puterea și potențialul imens al tehnologiilor AI și ML.
"Nu cunoaștem încă implicațiile acestei tehnologii. Care sunt pericolele pe care le implică? Știm câteva lucruri care pot merge prost cu această sabie cu două tăișuri", a avertizat el.
Citește și: Afacerile sunt dispuse să plătească mult pentru suport de calitate!
Citește și: Ce este ChatGPT? Acest robot poate face lucruri incredibile in 2023!
Citește și: "Părintele internetului" contra investirii în inteligența artificială?