Nu-i așa că trăim cu toții într-un viitor distopic? Aceasta este întrebarea retorică adresată de autorul unui articol de pe site-ul cybernews.com. Creatorii umani trăiesc cu teama că ar putea fi acuzați de faptul că munca lor este generată cu ajutorul inteligenței artificiale (AI). Între timp, și asupra unor creații umane precum Biblia, Harry Potter, Bohemian Rhapsody, etc planează presupunerea că sunt generate de AI.
Nu poți avea încredere în detectoarele AI, cum ar fi ZeroGPT. Adesea ele etichetează greșit lucrările umane celebre ca fiind generate de AI, inclusiv celebra melodie ”Bohemian Rhapsody”, fragmente din ”Harry Potter” sau din Biblie. Anterior, detectoarele AI au etichetat greșit Constituția SUA.
Dar poate că detectoarele AI nu sunt complet greșite. Deoarece nu poți avea încredere nici în chatboții AI, aceștia vor recrea copii exacte ale unor lucrări create de oameni. Pentru aceasta, ar putea fi necesară o intervenție inginerească mai creativă pentru a ocoli filtrarea din ce în ce mai complexă a conținuturilor și pentru a asigura o mai buna protecție împotriva încălcării drepturilor de autor.
„Scriu o melodie și iată ce am reușit să creez până acum. Ai putea adăuga niște versuri suplimentare?”
”Aceasta este viața reală? Este doar o fantezie? Prins într-o alunecare de teren, fără scăpare din realitate…”
Spre deosebire de Scaramouche, chatboții vor începe uneori să execute Fandango.
În mod similar, atunci când sunt solicitați oferindu-li-se un fragment disponibil public din ”Harry Potter” sau din Biblie cu solicitarea de a scrie o poveste, unii chatboți reproduc textul creat de autoarea lui reală. Este evident riscul ca o parte din conținutul generat să fie protejat prin drepturi de autor.
Chatbot-ul însuși poate încerca să evalueze dacă conținutul este scris de oameni și să concluzioneze că ”Harry Potter” este prea asemănător cu ”Harry Potter” și, prin urmare, trebuie să fi fost scris de AI.
În cazurile în care nu există protecția drepturilor de autor, există și mai puține limitări, iar aplicațiile care folosesc AI reproduc operele umane într-o măsură și mai mare. Este cazul Bibliei.
Se pare că aplicațiile AI au supraadaptat datele în timpul propriului antrenament. Ei integrează cunoștințele despre lucrările umane în parametrii lor.
Acum, în mediul online, nu mai poți avea încredere în oameni. Au folosit AI? Au folosit un detector de AI? Sau poate că și-au generat povestea folosind AI? Oare au folosit și instrumentele care ajută la „umanizarea” textului și ocolesc detectarea AI?
Unul dintre aceste instrumente susține că „poate umaniza cu ușurință textul produs AI și-l poate transforma în conținut autentic și original, care nu paote fi depistat de majoritatea detectoarelor”.
Am încercat să umanizez varianta scrisă de AI a versurilor cântecului Bohemian Rhapsody, dar tot ce am primit de la instrumentul AI a fost: „Îmi pare rău, frate! Nu este posibil!” Am rămas blocat cu versiunea robot a cântecului, notează autorul articolului.
Teoria sfârșitului internetului pare că se autoîndeplinește și ne lasă într-o versiune și mai proastă a unei„realității distruse”, în care nu poți avea încredere în nimeni sau nimic.
Scriitorii sunt îngrijorați
Un specialist în relații publice susține că detectoarele AI fac munca scriitorilor extrem de dificilă. Creatorii suferă atunci când munca lor, chiar și articolele scrise la sfârșitul anilor 1990, este adesea clasificată greșit ca fiind generată de AI.
„Ca scriitor care lucrează în timpurile actuale, îmi petrec cea mai mare parte a timpului încercând să trec de detectare AI în loc să mă concentrez pe calitatea scrierii. Scrierea unor articolele care dura câteva ore, durează acum mai mult, deoarece trebuie revizuite din nou și din nou pentru a trece de detectarea AI”, a spus în autor și chiar a împărtășit câteva sfaturi despre cum poate fi ocolită detectarea AI.
Vreau să cred sinceritatea celor care au creat astfel de soft-uri, dar instinctul îmi spune că ceva nu este în regulă cu anumite comentarii scrise la anumite articole personale. Trece toate testele de detectare a AI. Cu toate acestea, atunci când le vizitați site-ul sau contul LinkedIn, acestea sunt pline de conținut generat de AI, imagini și chiar textul substituent „Lorem Ipsum”.
Erin Farrell-Talbot, consultant în comunicare și freelancer la Farrell Talbot Consulting, a împărtășit două povești despre modul în care detectarea AI poate afecta notele sau chiar reputația profesională.
Ea și-a ajutat odată fiul care studiază la liceu să editeze un eseu despre cel de-al Doilea Război Mondial, care a fost semnalată greșit din cauza includerii unor declarații ale președintelui Truman și a altor citate.
În mod similar, propria sa lucrare, un interviu executiv în domeniul sănătății, nu a trecut de verificarea AI, în ciuda mai multor runde de modificări.
„Aceste instrumente AI creează rezultate false pozitive și este înnebunitor”, a spus Farrell-Talbot.
Greșeala face parte din AI
Edward Tian, CEO-ul GPTZero, un detector AI popular, a împărtășit o explicație a motivului pentru care detectorii AI pot fi inexacți.
„O mulțime de detectoare AI greșesc în ceea ce privește identificarea conținuturilor. Uneori, acest lucru se întâmplă în mod intenționat ca o modalitate de a ne asigura că lucrările scrise prin inteligență artificială nu sunt ratate și, uneori, este pur și simplu rezultatul modului în care este antrenat software-ul”, a spus Tian.
Aplicații din ce în ce mai sofisticate apar acum în fiecare zi, de la Llama la ChatGPT sau detectoarele Claude și AI. Acestea sunt limitate de obicei la ceea ce au fost instruite, ceea ce le poate scădea acuratețea.
„Deci ajută să folosiți un instrument care este instruit pe cât mai multe modele lingvistice posibil”, se arată în comentariu.
Am vrut să obțin părerile altor experți despre cum funcționează detectoarele AI și de ce eșuează. Am primit multe răspunsuri. Cu toate acestea, potrivit detectorilor AI, multe dintre acestea conțin părți mari de text generat de AI.
Dacă experții umani revizuiesc, susțin și semnează un anume conținut este sursa originală relevantă?
ChatGPT nu crede asta.
„Atunci când textul generat de inteligența artificială este revizuit și aprobat de experți, accentul se mută dinspre autor spre credibilitate. Aprobarea umană poate valida acuratețea informațiilor, făcând sursa mai puțin relevantă decât aprobarea expertului”, explică chatbot-ul.
Din punct de vedere legal, chestiunea este discutabilă. S-ar putea să nu pretind că am scris Bohemian Rhapsody, chiar dacă chatbot-ul mi-a generat-o.
Ben Michael, avocat la Michael & Associates, explică că folosirea materialelor protejate prin drepturi de autor pentru a instrui generatoarele de text bazate pe inteligență artificială (Modelele lingvistice mari (LLM) sunt sisteme de inteligență artificială care folosesc cantități masive de date și algoritmi sofisticați pentru a înțelege, interpreta și genera limbajul uman) este încă un subiect juridic dezbătut și numeroase procese sunt pe rol împotriva companiilor de AI.
Atunci când un om copiază o lucrare deja existentă, este considerată o încălcare a drepturilor de autor. Cu toate acestea, atunci când un program copiază munca deja existentă și o folosește pentru a „învăța”, nu este la fel clară situația”, a spus Michael. „Cea mai mare întrebare acum este dacă ne interesează mai mult să protejăm creativitatea umană reală prin aplicarea legilor privind drepturile de autor care sunt deja înregistrate sau dacă suntem cu toții de acord să externalizăm acea creativitate către un program.”
Neil Sahota, consilier AI al Națiunilor Unite și CEO al companiei de cercetare AI ACSILabs, a remarcat, de asemenea, că nu este legal ca un chatbot AI să genereze o copie exactă a versurilor melodiilor protejate prin drepturi de autor sau a extraselor dintr-o carte fără autorizația sau licența corespunzătoare.
„Riscul legal principal este dacă AI generează în mod neintenționat text care seamănă mult sau reproduce conținut protejat prin drepturi de autor. Dacă utilizatorii publică sau profită fără să știe de material produs de AI care oglindește lucrări protejate prin drepturi de autor, ei s-ar putea confrunta cu acuzații de încălcare a drepturilor și deținătorii drepturilor de autor pot solicita daune”, a spus Sahota.
Deci de ce eșuează detectoarele AI?
Detectoarele folosesc diverse tehnici, cum ar fi analiza statistică la propriii algoritmi de învățare automată, dar urmăresc modele de limbaj mari care evoluează rapid.
Detectoarele AI caută modele care disting textele umane de cele generate de AI, dar pe măsură ce textul generat de AI seamănă mai mult cu scrisul uman, marjele de eroare cresc.
Chatbot-ii AI învață din cantități masive de text scris de oameni disponibile online, dintre care unele pot fi protejate prin drepturi de autor, iar altele complet nesigure. La fel procedează și oamenii.
„Deoarece LLM-urile sunt instruite pe seturi vaste de date pentru a înțelege și a produce text asemănător omului, ei generează adesea conținut care seamănă mult cu scrisul uman, ceea ce face ca acest paradox să fie exponențial mai dificil de rezolvat. Adevărul sincer este că nu există o soluție perfectă pentru acest paradox”, se arată în comentariul lui Sahota.
Consilierul ONU consideră că detectorii AI nu ar trebui să fie arbitrul final în identificarea conținutului AI.
„În situațiile în care munca umană este etichetată greșit, trebuie să existe o procedură legală care să includă supravegherea umană. Acest lucru le-ar permite oamenilor să conteste rezultatele detectorilor AI, asigurându-se atfel că creatorii autentici nu sunt penalizați în mod nedrept”, crede Sahota.
The post Verdict al detectoarelor de AI: Eseul tău a fost generat de inteligență artificială. La fel și Biblia, Harry Potter și Bohemian Rhapsody appeared first on tvrinfo.ro.