Liber la produs videoclipuri deepfake. Oricine va putea crea imagini folosind comenzi text cu ajutorul inteligenței artificiale VIDEO

0
Publicat:

Programul Sora de la OpenAI arată cum orice persoană va putea crea imagini realiste din confortul scaunului său, prin simple comenzi text.

Imaginile par filmat în Tokio, dar sunt generate printr-un simplu text
Imaginile par filmat în Tokio, dar sunt generate printr-un simplu text FOTO captură X

Sora, dezvăluit de OpenAI joia trecută, arată imagini filmate cu o dronă deasupra orașului Tokyo acoperit de zăpadă, valurile care lovesc stâncile de la Big Sur sau o femeie care se bucură la o petrecere de ziua sa de naștere.

Experții spun că noul program de inteligență artificială ar putea elimina întregi industrii, cum ar fi producția de film și ar putea duce la o creștere a videoclipurilor deepfake înaintea alegerilor prezidențiale din SUA, scrie Daily Mail.

Uneltele de inteligență artificială generativă evoluează atât de rapid, iar noi avem rețele de socializare, ceea ce duce la un punct vulnerabil în democrația noastră și acest lucru nu ar fi putut să se întâmple într-un moment mai rău”, a declarat Oren Etzioni, fondatorul TruMedia.org, pentru CBS.

Pe măsură ce încercăm să rezolvăm această problemă, ne confruntăm cu una dintre cele mai importante alegeri din istorie”, a adăugat el.

Calitatea imaginilor, a sunetului și a videoclipurilor generate de AI a crescut rapid în ultimul an, cu companii precum OpenAI, Google, Meta și Stable Diffusion care se grăbesc să creeze unelte mai avansate și mai accesibile.

Sora poate genera scene complexe cu mai mulți caractere, tipuri specifice de mișcare și detalii precise ale subiectului și fundalului”, explică OpenAI pe site-ul său. „Modelul înțelege nu numai ceea ce a cerut utilizatorul în text, ci și modul în care acele lucruri există în lumea fizică.

Programul este în prezent testat și evaluat pentru potențiale riscuri de siguranță, fără o dată disponibilă pentru o lansare publică încă.

Compania a dezvăluit exemple care sunt puțin probabil să fie ofensatoare, dar experții avertizează că noua tehnologie ar putea declanșa un nou val de deepfake-uri extrem de realiste.

Sora „va face chiar mai ușor pentru cei rău intenționați să genereze deepfake-uri video de înaltă calitate și le va oferi o flexibilitate mai mare pentru a crea videoclipuri care ar putea fi utilizate în scopuri ofensatoare”, a declarat dr. Andrew Newell, director științific al firmei de verificare a identității, iProov, pentru CBS. „Actorii sau persoanele care fac videoclipuri scurte pentru jocuri video, în scopuri educaționale sau reclame vor fi cel mai repede afectați”, a avertizat Newell.

Videoclipurile deepfake, inclusiv cele de natură sexuală, devin o problemă tot mai mare, atât pentru persoanele private, cât și pentru cele cu un profil public.

Vom lua mai multe măsuri de siguranță importante înainte de a face Sora disponibil în produsele OpenAI”, a scris compania. „Lucrăm cu echipe de redare — experți în domenii precum dezinformarea, conținutul de ură și prejudecăți. De asemenea, construim unelte pentru a ajuta la detectarea conținutului înșelător, cum ar fi un clasificator de detectare care poate spune când un videoclip a fost generat de Sora”, a mai informat OpenAI.

Imaginile deepfake au atras atenția în acest an, când imagini sexuale cu Taylor Swift generate de AI au circulat pe rețelele sociale.

Nici președintele Joe Biden nu a scăpat de capcana deepfake-urilor care i-au animat fața și i-au creat propria voce.

Vineri, mai multe companii tehnologice majore au semnat un pact pentru a lua „precauții rezonabile” pentru a preveni utilizarea uneltelor de inteligență artificială pentru a perturba alegerile democratice din întreaga lume.

Tehnologie



Partenerii noștri

Ultimele știri
Cele mai citite