Acum exista companii care vand persoane false. Pe site-ul Generated.Photos, puteti cumpara o persoana falsa „unica, fara griji” la 2,99 USD sau 1.000 de persoane la 1.000 USD. Daca aveti nevoie doar de cateva persoane false – pentru personaje dintr-un joc video sau pentru a face site-ul companiei dvs. sa para mai diversificat – le puteti obtine fotografiile gratuit pe ThisPersonDoesNotExist.com. Ajustati-le asemanarea dupa cum este necesar; faceti-i batrani sau tineri sau etnia pe care o alegeti. Daca doriti ca persoana dvs. falsa sa fie animata, o companie numita Rosebud.AI poate face asta si chiar ii poate face sa vorbeasca.
Aceste persoane simulate incep sa apara pe internet, folosite ca masti de oameni reali cu intentie nefasta: spioni care imbraca o fata atractiva in efortul de a se infiltra in comunitatea de informatii; propagandistii de dreapta care se ascund in spatele profilelor false, a fotografiilor si a tuturor; hartuitori online care isi troleaza tintele cu o infatisare prietenoasa.
Am creat propriul nostru sistem AI pentru a intelege cat de usor este sa generezi diferite fete false.
Sistemul AI vede fiecare fata ca o figura matematica complexa, o serie de valori care pot fi schimbate. Alegerea diferitelor valori – cum ar fi cele care determina dimensiunea si forma ochilor – poate modifica intreaga imagine.
Pentru alte calitati, sistemul nostru a folosit o abordare diferita. In loc sa schimbe valorile care determina anumite parti ale imaginii, sistemul a generat mai intai doua imagini pentru a stabili punctele de inceput si de sfarsit pentru toate valorile, apoi a creat imagini intre ele.
Crearea acestor tipuri de imagini false a devenit posibila doar in ultimii ani, datorita unui nou tip de inteligenta artificiala numita retea contradictorie generativa. In esenta, hranesti un program de computer cu o gramada de fotografii cu oameni reali. Le studiaza si incearca sa vina cu propriile fotografii ale oamenilor, in timp ce o alta parte a sistemului incearca sa detecteze care dintre aceste fotografii sunt false.
Inapoi si inapoi, produsul final face din ce in ce mai diferentiat de ceea ce este real. Portretele din aceasta poveste au fost create de The Times folosind software-ul GAN care a fost pus la dispozitia publicului de catre compania de grafica pe computer Nvidia.
Avand in vedere ritmul imbunatatirii, este usor sa ne imaginam un viitor nu atat de indepartat in care ne confruntam nu doar cu portrete individuale de oameni falsi, ci cu colectii intregi de acestia – la o petrecere cu prieteni falsi, petrecand cu cainii lor falsi, tinandu-si bebelusii falsi. Va deveni din ce in ce mai dificil sa afli cine este real online si cine este un rezultat al imaginatiei unui computer.
„Cand tehnologia a aparut pentru prima data in 2014, a fost rau – arata ca Sims”, a spus Camille Francois, un cercetator in dezinformare a carui sarcina este sa analizeze manipularea retelelor sociale. „Este un memento despre cat de rapid poate evolua tehnologia. ioschat.com Detectarea se va ingreuna doar in timp.
- ok google
- fluture
- bitcoin euro
- smart bet
- vlad cazino
- radio magic
- program tvr 1
- irina loghin
- magazin play
- porofessor
- rapid bucuresti
- answear
- tunsori barbati
- xxxtentacion
- piscine
- totalbet
- bratara barbati
- acatistul sf nectarie
- tribuna
- exatlon
”
Progresele in falsificarea fetei au fost posibile in parte, deoarece tehnologia a devenit mult mai buna la identificarea trasaturilor faciale cheie. Va puteti folosi fata pentru a debloca smartphone-ul sau puteti spune software-ului dvs. foto sa sorteze printre mii de imagini si sa va arate doar cele ale copilului dumneavoastra. Programele de recunoastere faciala sunt utilizate de fortele de ordine pentru identificarea si arestarea suspectilor criminali (si, de asemenea, de catre unii activisti pentru a dezvalui identitatea ofiterilor de politie care isi acopera etichetele de nume in incercarea de a ramane anonim). O companie numita Clearview AI a rascolit reteaua de miliarde de fotografii publice – distribuite intamplator online de catre utilizatorii de zi cu zi – pentru a crea o aplicatie capabila sa recunoasca un strain dintr-o singura fotografie. Tehnologia promite superputeri: capacitatea de a organiza si procesa lumea intr-un mod care nu era posibil pana acum.
Dar algoritmii de recunoastere faciala, ca si alte sisteme AI, nu sunt perfecti. Datorita prejudecatii subiacente din datele utilizate pentru instruirea lor, unele dintre aceste sisteme nu sunt la fel de bune, de exemplu, pentru a recunoaste oamenii de culoare. In 2015, un sistem de detectare timpurie a imaginii dezvoltat de Google a etichetat doi negri drept „gorile”, cel mai probabil deoarece sistemul a fost hranit cu multe mai multe fotografii ale gorilelor decat ale persoanelor cu pielea inchisa la culoare.
Mai mult, camerele – ochii sistemelor de recunoastere faciala – nu sunt la fel de bune in capturarea persoanelor cu pielea inchisa la culoare; acel standard nefericit dateaza din primele zile ale dezvoltarii filmului, cand fotografiile erau calibrate pentru a arata cel mai bine fetele oamenilor cu pielea deschisa. Consecintele pot fi grave. In ianuarie, un barbat negru din Detroit, pe nume Robert Williams, a fost arestat pentru o crima pe care nu a comis-o din cauza unui meci incorect de recunoastere faciala.
Inteligenta artificiala ne poate face viata mai usoara, dar in cele din urma este la fel de defectuoasa ca si noi, pentru ca suntem in spatele tuturor. Oamenii aleg modul in care sunt realizate sistemele de IA si la ce date sunt expuse. Alegem vocile care ii invata pe asistenti virtuali sa auda, conducand aceste sisteme sa nu inteleaga oamenii cu accente. Proiectam un program de computer pentru a prezice comportamentul criminal al unei persoane, oferindu-i date despre hotararile anterioare pronuntate de judecatorii umani – si in procesul de coacere in prejudecatile judecatorilor. Etichetam imaginile care antreneaza computerele sa le vada; apoi asociaza ochelarii cu „dweebs” sau „tocilari”.
Puteti observa cateva dintre greselile si modelele pe care le-am constatat ca sistemul nostru de IA a repetat atunci cand elucida fetele false.
Oamenii gresesc, desigur: Trecem cu vederea sau depasim defectele acestor sisteme, prea repede ca sa avem incredere ca computerele sunt hiper-rationale, obiective, intotdeauna corecte. Studiile au aratat ca, in situatiile in care oamenii si computerele trebuie sa coopereze pentru a lua o decizie – sa identifice amprentele digitale sau fetele umane – oamenii au facut in mod constant o identificare gresita atunci cand un computer i-a impins sa faca acest lucru. In primele zile ale sistemelor GPS de bord, soferii respectau instructiunile dispozitivului catre o defectiune, trimitand masini in lacuri, pe stanci si in copaci.
Este aceasta smerenie sau hibrid? Punem o valoare prea mica in inteligenta umana – sau o depasim, presupunand ca suntem atat de inteligenti incat putem crea lucruri mai inteligente inca?
Algoritmii Google si Bing sorteaza cunostintele lumii pentru noi. Fluxul de stiri Facebook filtreaza actualizarile din cercurile noastre sociale si decide care sunt suficient de importante pentru a ne arata. Cu functiile de auto-conducere din masini, ne punem siguranta in mainile (si ochii) software-ului. Avem multa incredere in aceste sisteme, dar ele pot fi la fel de gresite ca noi.
Mai multe articole despre inteligenta artificiala:
Antrenarea recunoasterii faciale a unor noi prieteni cu blana: ursi
Anticorpi Buni. pallicovid.co.uk Molecule produse de masini mai bine?
Aceste algoritmi ar putea pune capat celui mai mortal ucigas din lume



























