Autoritatile de reglementare vizeaza inteligenta artificiala pentru a proteja consumatorii si lucratorii

Pe masura ce preocuparile cresc cu privire la sistemele de inteligenta artificiala din ce in ce mai puternice precum ChatGPT, organul de supraveghere financiar al natiunii spune ca lucreaza pentru a se asigura ca companiile respecta legea atunci cand folosesc AI.

Deja, sistemele si algoritmii automatizati ajuta la determinarea ratingurilor de credit, a conditiilor de imprumut, a taxelor de cont bancar si a altor aspecte ale vietii noastre financiare. AI afecteaza, de asemenea, angajarea, locuinta si conditiile de munca.

Ben Winters, consilier principal pentru Centrul electronic de informare privind confidentialitatea, a declarat ca o declaratie comuna privind aplicarea emisa de agentiile federale luna trecuta a fost un prim pas pozitiv.

„Exista aceasta naratiune conform careia AI este complet nereglementata, ceea ce nu este cu adevarat adevarat”, a spus el. „Ei spun: „Doar pentru ca folosesti inteligenta artificiala pentru a lua o decizie, asta nu inseamna ca esti scutit de responsabilitate in ceea ce priveste impactul acestei decizii. Aceasta este parerea noastra despre asta. Ne uitam.'”

In ultimul an, Biroul pentru Protectia Finantelor Consumatorului a declarat ca a amendat bancile din cauza sistemelor automate prost gestionate care au dus la executari silite de locuinte, retrageri in posesie de masini si plati de beneficii pierdute, dupa ce institutiile s-au bazat pe noi tehnologii si algoritmi defecte.

Nu vor exista „exceptari AI” pentru protectia consumatorilor, spun autoritatile de reglementare, indicand aceste actiuni de aplicare drept exemple.

Directorul Biroului pentru Protectia Finantelor Consumatorului, Rohit Chopra, a declarat ca agentia „a inceput deja ceva pentru a continua sa se dezvolte pe plan intern atunci cand vine vorba de a aduce la bord oameni de stiinta de date, tehnologi si altii pentru a se asigura ca putem face fata acestor provocari” si ca agentia continua pentru a identifica activitatea potential ilegala.

Reprezentantii Comisiei Federale pentru Comert, Comisia pentru Egalitatea de Sanse in Angajare si Departamentul de Justitie, precum si CFPB, toti spun ca directioneaza resursele si personalul pentru a viza noile tehnologii si pentru a identifica modalitatile negative in care acestea ar putea afecta viata consumatorilor. .

„Unul dintre lucrurile pe care incercam sa le facem foarte clar este ca, daca companiile nici macar nu inteleg modul in care AI lor ia decizii, nu o pot folosi cu adevarat”, a spus Chopra. „In alte cazuri, ne uitam la modul in care legile noastre de creditare echitabile sunt respectate atunci cand vine vorba de utilizarea tuturor acestor date.”

In conformitate cu Legea de raportare a creditelor echitabile si Legea privind egalitatea de sanse de credit, de exemplu, furnizorii financiari au obligatia legala de a explica orice decizie de credit adversa. Aceste reglementari se aplica, de asemenea, deciziilor luate cu privire la locuinte si angajare. Acolo unde AI ia decizii in moduri prea opace pentru a fi explicate, autoritatile de reglementare spun ca algoritmii nu ar trebui folositi.

„Cred ca a existat un sentiment ca „Oh, haideti sa le dam robotilor si nu va mai exista discriminare”, a spus Chopra. „Cred ca invatarea este ca acest lucru de fapt nu este deloc adevarat. Intr-un fel, partinirea este incorporata in date.”

Presedintele EEOC, Charlotte Burrows, a spus ca va exista aplicarea impotriva tehnologiei de angajare AI care exclude solicitantii de locuri de munca cu dizabilitati, de exemplu, precum si asa-numitul „sefware” care supravegheaza ilegal lucratorii.

Burrows a descris, de asemenea, modalitati prin care algoritmii ar putea dicta cum si cand angajatii pot lucra in moduri care ar incalca legea existenta.

„Daca ai nevoie de o pauza pentru ca ai un handicap sau poate ca esti insarcinata, ai nevoie de o pauza”, a spus ea. „Algoritmul nu tine cont neaparat de acea acomodare. Acestea sunt lucruri la care ne uitam indeaproape… Vreau sa fiu clar ca, desi recunoastem ca tehnologia evolueaza, mesajul de baza aici este ca legile inca se aplica si avem instrumente de aplicat.”

Avocatul de top al OpenAI, la o conferinta luna aceasta, a sugerat o abordare a reglementarii condusa de industrie.

„Cred ca incepe mai intai cu incercarea de a ajunge la un fel de standarde”, a declarat Jason Kwon, consilierul general al OpenAI, la un summit tehnologic la Washington, DC, gazduit de grupul industriei software BSA. „Acestea ar putea incepe cu standardele din industrie si un fel de combinare in jurul acestora. Si deciziile daca sa fie sau nu obligatorii si, de asemenea, care este procesul de actualizare a acestora, aceste lucruri sunt probabil un teren fertil pentru mai multe conversatii.”

Sam Altman, seful OpenAI, care face ChatGPT, a declarat ca interventia guvernului „va fi esentiala pentru a atenua riscurile sistemelor AI din ce in ce mai puternice”, sugerand formarea unei agentii americane sau globale care sa licentieze si sa reglementeze tehnologia.

Desi nu exista niciun semn imediat ca Congresul va elabora noi reguli cuprinzatoare de inteligenta artificiala, asa cum fac parlamentarii europeni, preocuparile societale i-au adus pe Altman si alti directori generali de tehnologie la Casa Alba luna aceasta pentru a raspunde la intrebari dificile despre implicatiile acestor instrumente.

Winters, de la Electronic Privacy Information Center, a declarat ca agentiile ar putea face mai mult pentru a studia si a publica informatii despre pietele relevante de AI, cum functioneaza industria, cine sunt cei mai mari jucatori si cum sunt utilizate informatiile colectate – modul in care autoritatile de reglementare s-au descurcat in trecut cu noile produse si tehnologii de finantare a consumatorilor.

„CFPB a facut o treaba destul de buna in acest sens cu companiile „Cumparati acum, platiti mai tarziu”,” a spus el. „Exista atat de multe parti ale ecosistemului AI care sunt inca atat de necunoscute. Publicarea acestor informatii ar duce un drum lung.”