
Editorii Wikipedia au decis să restricționeze modul în care inteligența artificială poate fi utilizată pe platformă, printr-o actualizare recentă a politicii care interzice utilizarea modelelor lingvistice mari pentru a scrie sau a rescrie articole.
Noua directivă reflectă o îngrijorare crescândă în cadrul comunității Wikipedia că textul generat de AI poate intra în conflict cu standardele platformei, în special în ceea ce privește verificabilitatea și sursele de încredere.
„Textul generat de modelele lingvistice mari încalcă adesea mai multe politici de conținut esențiale ale Wikipedia”, se arată în actualizarea politicii. „Din acest motiv, utilizarea LLM-urilor pentru a genera sau a rescrie conținutul articolelor este interzisă, cu excepția cazurilor menționate mai jos.”
Politica permite în continuare utilizarea limitată a instrumentelor AI, inclusiv sugestii de editare de bază pentru propriile scrieri ale unui editor, cu condiția ca sistemul să nu introducă informații noi. Cu toate acestea, editorii sunt sfătuiți să revizuiască cu atenție aceste sugestii.
Deși noua politică nu menționează sancțiuni pentru utilizarea conținutului generat de AI, conform ghidurilor Wikipedia privind divulgarea, utilizarea repetată abuzivă constituie un „model de editare perturbatoare” și poate duce la blocarea sau interzicerea accesului. Wikipedia oferă editorilor o cale de a-și restabili conturile printr-un proces de apel.
„Blocările pot fi anulate cu acordul administratorului care a aplicat blocarea, prin anularea de către alți administratori în cazul în care blocarea a fost în mod clar nejustificabilă, sau (în cazuri foarte rare) prin apel la Comitetul de Arbitraj”, a declarat Wikipedia.
„Fundația Wikimedia nu determină politicile și ghidurile editoriale de pe Wikipedia; editorii voluntari o fac”, a declarat un purtător de cuvânt al Fundației Wikimedia pentru Decrypt. „Punctul forte al Wikipedia a fost și va rămâne întotdeauna modelul său centrat pe om, bazat pe voluntari.”
Potrivit lui Emily M. Bender, profesor de lingvistică la Universitatea din Washington, unele utilizări ale modelelor lingvistice în instrumentele de editare pot fi rezonabile, dar trasarea unei limite clare între editare și generarea de text poate fi dificilă.
„Deci, unul dintre lucrurile pe care le poți face cu un model lingvistic este să construiești un corector ortografic foarte bun, de exemplu”, a declarat Bender pentru Decrypt. „Cred că este rezonabil să spunem că este în regulă să rulezi un corector ortografic peste editări. Și dacă faci următorul nivel, un corector gramatical, și asta poate fi în regulă.”
Bender a spus că provocarea apare atunci când sistemele depășesc corectarea gramaticii și încep să modifice sau să genereze conținut, menționând că modelele lingvistice mari nu dispun de tipul de responsabilitate pe care contribuitorii umani o aduc proiectelor de cunoaștere colaborativă.
„Utilizarea modelelor lingvistice mari pentru a produce text sintetic, este o proprietate fundamentală a acestor sisteme că nu există responsabilitate, nicio legătură cu ceea ce crede sau susține cineva”, a spus ea. „Când vorbim, vorbim pe baza a ceea ce credem și pentru ce suntem responsabili, nu pe baza unei noțiuni obiective de adevăr. Și asta nu este prezent la modelele lingvistice mari.”
Bender a spus că utilizarea pe scară largă a editărilor generate de AI ar putea afecta, de asemenea, reputația site-ului.
„Dacă oamenii, în schimb, iau scurtături și creează ceva care arată ca o editare sau un articol Wikipedia și o pun acolo, atunci asta degradează valoarea și reputația generală a site-ului”, a spus ea.
Joseph Reagle, profesor asociat de studii de comunicare la Northeastern University, care studiază cultura și guvernanța Wikipedia, a declarat că răspunsul comunității reflectă preocupări de lungă durată privind acuratețea și sursele.
„Wikipedia este precaută cu proza generată de AI”, a declarat Reagle pentru Decrypt. „Ei iau în serios caracterizările precise ale ceea ce sursele de încredere afirmă despre un subiect. AI a avut limitări serioase în această privință, cum ar fi afirmațiile „halucinate” și sursele fabricate.”
Reagle a declarat că politicile de bază ale Wikipedia modelează, de asemenea, modul în care editorii privesc instrumentele AI, menționând că multe modele lingvistice mari au fost antrenate pe conținutul Wikipedia. În octombrie, Fundația Wikimedia a declarat că vizitele umane pe Wikipedia au scăzut cu aproximativ 8% de la an la an, pe măsură ce motoarele de căutare și chatbot-urile oferă din ce în ce mai mult răspunsuri direct pe platformele lor, în loc să trimită utilizatorii către site.
În ianuarie, Fundația Wikimedia a anunțat acorduri cu companii de AI, inclusiv Microsoft, Google, Amazon și Meta, permițându-le să utilizeze materialele Wikipedia prin produsul său Enterprise, un serviciu comercial conceput pentru reutilizarea la scară largă a conținutului său.
„Deși utilizarea conținutului Wikipedia este permisă de licențele Wikipedia, există încă o anumită antipatie printre wikipedieni față de serviciile care își însușesc conținutul comunităților și apoi plasează cerințe nedorite asupra acestor comunități pentru a gestiona abundența de conținut AI de calitate slabă”, a declarat Reagle.
În ciuda interdicției de a utiliza LLM-uri, Wikipedia permite instrumentelor AI să traducă articole din alte ediții lingvistice în engleză, cu condiția ca editorii să verifice textul original. Politica avertizează, de asemenea, editorii să nu se bazeze doar pe stilul de scriere pentru a identifica conținutul generat de AI și, în schimb, să se concentreze pe conformitatea materialului cu politicile de bază ale Wikipedia și cu istoricul de editare al contribuitorului.
„Unii editori pot avea stiluri de scriere similare cu cele ale LLM-urilor”, se arată în actualizare. „Este nevoie de mai multe dovezi decât simple semne stilistice sau lingvistice pentru a justifica sancțiunile și este cel mai bine să se ia în considerare conformitatea textului cu politicile de conținut de bază și cu editările recente ale editorului în cauză.”
Notă a editorului: Acest articol a fost actualizat după publicare pentru a include comentarii din partea Fundației Wikipedia.