Populära Inlägg

Redaktionen - 2024

Tro inte på någon: Vad hotar det neurala nätverket, gör porno

Dmitry Kurkin

Falska porrfilmerdär stjärnan i filmen "Wonder Woman" Gal Gadot påstås ha sex med sin styvbror, som visade sig på webben i veckan, visade sig vara inte bara en falsk men en falsk genererad av artificiell intelligens.

Författaren till videon, en anonym redditsanvändare med smeknamnets djupfel, i en intervju med Vice, bekräftade att han använde det neurala nätverket för att "ta fotografering" Gadots ansikte mot porrskådespelerska kroppen. Den falska är i allmänhet märkbar och djupfacken planerade inte att tjäna pengar på det - enligt honom ville han bara kontrollera hur lätt det skulle vara att göra det med AI. Och han har dåliga nyheter för oss: det var väldigt lätt att göra falsk porr hemma.

Problemet är i allmänhet inte i pornofeaks själva: efterfrågan på bilder och videor, där kändisar-liknande skådespelare och skådespelerskor har sex, var, kommer att vara med fetisternas och fansens känslor. På den externa likheten med stjärnorna inom porrindustrin görs hela karriären - detta fenomen gav till och med upphov till en enastående rubrik av den gula pressen: "Gordon Ramsay-dvärgen hittades död i ett badgerhål".

Men om det före tidsåtgången behövdes tid, resurser och viss färdighet, då ett neuralt nätverk, utbildat för att svetsa ansikten mot en bild, förenklar uppgiften mycket. Robots sticker in, inte en man, och robotar blir smartare från tid till annan, vilket betyder att fakes kommer att se mer och mer tillförlitliga ut. Deepfakes-användaren klargjorde att han samlade in sin AI-programvara från de improviserade elementen som finns i open source-biblioteken och tog bilder och videoklipp i offentliga avlopp och värd som YouTube. Enkelt uttryckt låg alla verktyg för att generera pornofeikov under hans näsa, inte bara med honom utan bland miljontals människor runt om i världen.

Och detta, strängt taget, inte ens nyheter. Tillbaka 2003 varnade experter från University of Oregon Health and Science att ljudfusk är "lätt att göra och svårt att bestämma." Vid 2017 var förutsägelsen sann och det fanns röstinspelningar som genererades av neurala nätverk, vilka är mycket svåra att särskilja från riktiga. Efter ljudet togs videon upp. Utvecklingen av personalen vid University of Washington synkroniserar ansiktsuttryck av en persons ansikte med sitt tal: i videoklippet med Barack Obama som utspelas till exempel är bara ljud närvarande, bilden genereras av programmet. Anslut en med den andra - och nu finns det färdiga falska videor, där en välkänd liberal politiker "bekänner" hans sympati för Hitler.

Det tar lite fantasi att föreställa sig hur missbruk av sådan artificiell intelligens kan leda till - chatbotsna från Microsoft, som trollarna från Twitter har blivit rasistiska på mindre än en dag, verkar som en ganska prank. Och naturligtvis är inte Porno-tekniken hotad av Gal Gadot, Taylor Swift eller Jennifer Lawrence. De är tillräckligt säkrade för att anställa en armé av IT-specialister som känner igen en falsk och en flotta advokater som kommer att stämma på alla som försöker använda dessa fake för personlig vinning.

Nej, enkla dödliga kommer bli offer för nya ofarliga algoritmer. Digitala förfalskningar kan användas för pornografi, cyber-stalking, nätverkschikanering, utpressning och manipulation av personer som är lätta att förutse och följer inte särskilt nyheter från avancerad teknik. "Din dotter var videobild, överför pengar omedelbart, annars kommer allt att ses"). Och vi pratar inte nödvändigtvis om porno: Fakes kan också lanseras i nätverket för politisk propaganda och uppmuntran till hat.

"Men det här är monstrous!" Ja, monstrous, och det är inte deepfakes-kodaren som är skyldig. Som hackare brukar bryta sig in i banksystem inte för att stjäla pengar, men för att peka cyberförsvarsavdelningen i säkerhetshål, så uppfanns den av den anonyme AI-programmeraren som ställer oss inför faktum: epoken av digitala förfalskningar är inte en anti-utopisk skräckhistoria "Black Mirror" och den kommande verkligheten. Hon har ännu inte blivit förstående av modern etik (kan pornofiler betraktas som en invasion av andra människors privatliv?), Inte heller enligt gällande lag. Men det är hos henne att vi på något sätt måste leva de kommande åren. Så det är nödvändigt att utveckla en motgift mot sådan fyllning.

Collins ordbok kuratorer kallade termen "falska nyheter" uttrycket 2017, vilket understryker att den genomsnittliga användaren är beroende av clickbate och repost sensationella rubriker utan att slösa tid kontrollera orginaliteten av informationen. Under tiden kan falska nyheter påverka resultatet av val och folkomröstningar. Och det här är också en del av den nya verkligheten där vi redan finns och där vi måste lära oss att vara mindre frivolösa.

Sociala nätverk har redan gjort Internet till ett glasväggigt hus där miljontals människor kan titta på ditt liv varje dag - även när du inte vill ha det. Nu är det uppenbart att det inte finns någon dörr i det här huset: vem som helst kan försöka invadera ditt personliga utrymme genom att använda AI för att skruva upp ditt ansikte på pornorolen eller filmen "Ringenes Herre". Sekretess är död, men inte bara Storebror är skyldig i detta i form av specialtjänster och globala företag, men också oss själva.

Världen av digitala förfalskningar kommer, men det här är inte en anledning till panik, paranoia, vägran att använda Internet eller kraven att förbjuda neurala nätverk. Detta är en anledning att tänka på nätverkshygien och ny etik, där det kommer att fastställas en gång för allt att användandet av någon annans bild för att skapa en digital falsk är ömtålig och olaglig. Tiderna när människor på villkorligt sätt trodde allt de säger på TV (även om de säger att "Lenin var en svamp") bleknar bort. På samma sätt brukar vi oss själva avstå från att inte tro på allt som skrivs på Internet.

omslag:Warp poster

Lämna Din Kommentar