Inhoudsopgave:

Diepe vervalsingen: Neuroset werd geleerd om vervalsingen van geluid en video te genereren
Diepe vervalsingen: Neuroset werd geleerd om vervalsingen van geluid en video te genereren

Video: Diepe vervalsingen: Neuroset werd geleerd om vervalsingen van geluid en video te genereren

Video: Diepe vervalsingen: Neuroset werd geleerd om vervalsingen van geluid en video te genereren
Video: Jacques Cousteau's underworld village in the Red Sea | BBC 2024, Mei
Anonim

Om voor ieder van ons een "individueel" nieuwsbeeld te creëren en de daarin geselecteerde mediaberichten te vervalsen, zijn de inspanningen van één programmeur vandaag voldoende. Dat vertelden specialisten in kunstmatige intelligentie en cybersecurity aan Izvestia.

Meer recentelijk schatten ze dat dit het werk van meerdere teams vereiste. Een dergelijke versnelling is mogelijk geworden door de ontwikkeling van technologieën voor aanvallen op neurale netwerken en het genereren van audio- en videovervalsingen met behulp van programma's voor het maken van "diepe vervalsingen". De krant Izvestia werd onlangs het slachtoffer van een soortgelijke aanval, toen drie Libische nieuwsportalen tegelijk een bericht publiceerden dat naar verluidt in een van de nummers zou zijn verschenen. Volgens experts kunnen we binnen 3-5 jaar een invasie van robotmanipulators verwachten, die automatisch veel vervalsingen kunnen creëren.

Dappere nieuwe wereld

Er zijn steeds meer projecten die het informatiebeeld aanpassen aan de beleving van specifieke gebruikers. Een voorbeeld van hun werk was de recente actie van drie Libische portalen, die een nieuws publiceerden dat naar verluidt op 20 november in het nummer van Izvestia was gepubliceerd. De makers van de nep hebben de voorpagina van de krant aangepast en er een bericht op geplaatst over de onderhandelingen tussen veldmaarschalk Khalifa Haftar en de premier van de regering van nationaal akkoord (PNS) Fayez Sarraj. De nep, in Izvestia-lettertype, ging vergezeld van een foto van de twee leiders, genomen in mei 2017. Het label met het logo van de publicatie is geknipt uit het daadwerkelijk gepubliceerde nummer van 20 november en alle andere teksten op de pagina uit het nummer van 23 oktober.

Vanuit het oogpunt van specialisten kunnen dergelijke vervalsingen in de nabije toekomst automatisch worden gedaan.

The Truman Show - 2019: hoe neurale netwerken hebben geleerd het nieuwsbeeld te vervalsen
The Truman Show - 2019: hoe neurale netwerken hebben geleerd het nieuwsbeeld te vervalsen

"Kunstmatige intelligentietechnologieën zijn nu volledig open, en apparaten voor het ontvangen en verwerken van gegevens worden kleiner en worden goedkoper", Yuri Vilsiter, doctor in de fysische en wiskundige wetenschappen, professor aan de Russische Academie van Wetenschappen, hoofd van de FSUE "GosNIIAS"-afdeling, vertelde Izvestia. - Daarom is het zeer waarschijnlijk dat in de nabije toekomst niet eens de staat en grote bedrijven, maar gewoon particulieren ons zullen kunnen afluisteren en bespioneren, evenals de realiteit kunnen manipuleren. De komende jaren zal het mogelijk zijn om, door gebruikersvoorkeuren te analyseren, hem te beïnvloeden via nieuwsfeeds en zeer slimme vervalsingen.

Volgens Yuri Vilsiter bestaan er al technologieën die voor een dergelijke interventie in de mentale omgeving kunnen worden gebruikt. In theorie kan de invasie van robotbots binnen een paar jaar worden verwacht, zei hij. Een beperkend punt hier kan de noodzaak zijn om grote databases te verzamelen met voorbeelden van de reacties van echte mensen op kunstmatige stimuli met het volgen van langetermijngevolgen. Dergelijke tracking zal waarschijnlijk nog enkele jaren van onderzoek vergen voordat gerichte aanvallen consequent worden uitgevoerd.

Visie aanval

Alexey Parfentiev, hoofd van de analyseafdeling van SearchInform, is het ook met Yuri Vilsiter eens. Volgens hem voorspellen experts nu al aanvallen op neurale netwerken, al zijn er nu praktisch geen voorbeelden van.

- Onderzoekers van Gartner denken dat in 2022 30% van alle cyberaanvallen gericht zal zijn op het corrumperen van de data waarop het neurale netwerk is getraind en het stelen van kant-en-klare machine learning-modellen. Dan kunnen onbemande voertuigen bijvoorbeeld voetgangers ineens voor andere objecten gaan aanzien. En dan hebben we het niet over financieel of reputatierisico, maar over het leven en de gezondheid van gewone mensen, meent de deskundige.

Aanvallen op computer vision-systemen worden nu uitgevoerd als onderdeel van onderzoek. Het doel van dergelijke aanvallen is om het neurale netwerk iets in het beeld te laten detecteren dat er niet is. Of, omgekeerd, om niet te zien wat er gepland was.

The Truman Show - 2019: hoe neurale netwerken hebben geleerd het nieuwsbeeld te vervalsen
The Truman Show - 2019: hoe neurale netwerken hebben geleerd het nieuwsbeeld te vervalsen

"Een van de actief ontwikkelende onderwerpen op het gebied van het trainen van neurale netwerken zijn de zogenaamde vijandige aanvallen ("adversariële aanvallen. "- Izvestia)", legt Vladislav Tushkanov, een webanalist bij Kaspersky Lab, uit. - In de meeste gevallen zijn ze gericht op computer vision-systemen. Om een dergelijke aanval uit te voeren, moet u in de meeste gevallen volledige toegang hebben tot het neurale netwerk (de zogenaamde white-box-aanvallen) of de resultaten van zijn werk (black-box-aanvallen). Er zijn geen methoden die in 100% van de gevallen een computervisiesysteem kunnen misleiden. Daarnaast zijn er al tools gemaakt waarmee je neurale netwerken kunt testen op weerstand tegen aanvallen van tegenstanders en hun weerstand kunt vergroten.

Tijdens zo'n aanval probeert de aanvaller het herkende beeld op de een of andere manier te veranderen, zodat het neurale netwerk niet werkt. Vaak wordt er ruis op de foto gesuperponeerd, vergelijkbaar met wat optreedt bij het fotograferen in een slecht verlichte kamer. Een persoon merkt dergelijke interferentie meestal niet goed op, maar het neurale netwerk begint niet goed te werken. Maar om zo'n aanval uit te voeren, heeft de aanvaller toegang nodig tot het algoritme.

Volgens Stanislav Ashmanov, algemeen directeur van Neuroset Ashmanov, zijn er momenteel geen methoden om dit probleem aan te pakken. Bovendien is deze technologie voor iedereen beschikbaar: een gemiddelde programmeur kan er gebruik van maken door de benodigde open source software te downloaden van de Github-service.

The Truman Show - 2019: hoe neurale netwerken hebben geleerd het nieuwsbeeld te vervalsen
The Truman Show - 2019: hoe neurale netwerken hebben geleerd het nieuwsbeeld te vervalsen

- Een aanval op een neuraal netwerk is een techniek en algoritmen om een neuraal netwerk te misleiden, waardoor het valse resultaten oplevert en het in feite verbreekt als een deurslot, gelooft Ashmanov. - Het is nu bijvoorbeeld vrij eenvoudig om het gezichtsherkenningssysteem te laten denken dat jij het niet bent, maar Arnold Schwarzenegger ervoor - dit wordt gedaan door additieven die niet waarneembaar zijn voor het menselijk oog te mengen met de gegevens die naar het neurale netwerk komen. Dezelfde aanvallen zijn mogelijk voor spraakherkennings- en analysesystemen.

De expert is er zeker van dat het alleen maar erger zal worden - deze technologieën zijn naar de massa gegaan, fraudeurs gebruiken ze al en er is geen bescherming tegen. Omdat er geen bescherming is tegen het automatisch aanmaken van video- en audiovervalsingen.

Diepe vervalsingen

Deepfake-technologieën op basis van Deep Learning (technologieën van deep learning van neurale netwerken. - Izvestia) vormen nu al een reële bedreiging. Video- of audiovervalsingen worden gemaakt door het bewerken of overlappen van de gezichten van beroemde mensen die zogenaamd de noodzakelijke tekst uitspreken en de noodzakelijke rol spelen in de plot.

"Deepfake stelt je in staat om lipbewegingen en menselijke spraak te vervangen door video, wat een gevoel van realisme creëert van wat er gebeurt", zegt Andrey Busargin, directeur van de afdeling voor innovatieve merkbescherming en intellectueel eigendom bij Group-IB. - Nep-beroemdheden "bieden" gebruikers op sociale netwerken om deel te nemen aan de trekking van waardevolle prijzen (smartphones, auto's, geldbedragen), enz. Links van dergelijke videopublicaties leiden vaak naar frauduleuze en phishingsites, waar gebruikers worden gevraagd om persoonlijke informatie in te voeren, waaronder bankkaartgegevens. Dergelijke regelingen vormen een bedreiging voor zowel gewone gebruikers als publieke figuren die in commercials worden genoemd. Dit soort oplichting begint afbeeldingen van beroemdheden te associëren met oplichting of geadverteerde goederen, en dit is waar we persoonlijke merkschade tegenkomen, zegt hij.

The Truman Show - 2019: hoe neurale netwerken hebben geleerd het nieuwsbeeld te vervalsen
The Truman Show - 2019: hoe neurale netwerken hebben geleerd het nieuwsbeeld te vervalsen

Een andere bedreiging houdt verband met het gebruik van "valse stemmen" voor telefoonfraude. Zo gebruikten cybercriminelen in Duitsland voice deepfake om het hoofd van een dochteronderneming uit het VK met spoed 220.000 euro over te maken in een telefoongesprek, waarbij hij zich voordeed als bedrijfsleider.op de rekening van een Hongaarse leverancier. Het hoofd van de Britse firma vermoedde een truc toen zijn 'baas' om een tweede postwissel vroeg, maar het telefoontje kwam van een Oostenrijks nummer. Tegen die tijd was de eerste tranche al overgeschreven naar een rekening in Hongarije, vanwaar het geld werd opgenomen naar Mexico.

Het blijkt dat je met de huidige technologieën een individueel nieuwsbeeld kunt creëren dat gevuld is met nepnieuws. Bovendien zal het binnenkort mogelijk zijn om vervalsingen alleen door hardware te onderscheiden van echte video en audio. Volgens deskundigen is het onwaarschijnlijk dat maatregelen die de ontwikkeling van neurale netwerken verbieden, effectief zijn. Daarom zullen we binnenkort in een wereld leven waarin het nodig zal zijn om alles constant opnieuw te controleren.

"We moeten ons hierop voorbereiden en dit moet worden geaccepteerd", benadrukte Yuri Vilsiter. - De mensheid gaat niet voor het eerst van de ene werkelijkheid naar de andere. Onze wereld, manier van leven en waarden zijn radicaal anders dan de wereld waarin onze voorouders 60.000 jaar geleden, 5.000 jaar geleden, 2.000 jaar geleden en zelfs 200-100 jaar geleden leefden. In de nabije toekomst zal een persoon grotendeels worden beroofd van privacy en daarom gedwongen om niets te verbergen en eerlijk te handelen. Tegelijkertijd is niets in de omringende werkelijkheid en in de eigen persoonlijkheid te geloven, alles zal in twijfel moeten worden getrokken en voortdurend opnieuw moeten worden gecontroleerd. Maar zal deze toekomstige realiteit verschrikkelijk zijn? Nee. Het zal gewoon helemaal anders zijn.

Aanbevolen: