Table des matières:

Contrefaçons profondes : Neuroset a appris à générer des contrefaçons sonores et vidéo
Contrefaçons profondes : Neuroset a appris à générer des contrefaçons sonores et vidéo

Vidéo: Contrefaçons profondes : Neuroset a appris à générer des contrefaçons sonores et vidéo

Vidéo: Contrefaçons profondes : Neuroset a appris à générer des contrefaçons sonores et vidéo
Vidéo: Et si l'humanité vivait sous l'eau ? 2024, Peut
Anonim

Pour créer une image d'actualité « individuelle » pour chacun d'entre nous et pour falsifier les reportages des médias sélectionnés, les efforts d'un programmeur suffisent aujourd'hui. Des spécialistes de l'intelligence artificielle et de la cybersécurité en ont parlé à Izvestia.

Plus récemment, ils ont estimé que cela nécessitait le travail de plusieurs équipes. Une telle accélération est devenue possible avec le développement de technologies d'attaques sur les réseaux de neurones et la génération de contrefaçons audio et vidéo à l'aide de programmes de création de « deep fakes ». Le journal Izvestia a récemment fait l'objet d'une attaque similaire, lorsque trois portails d'information libyens ont publié en même temps un message qui serait apparu dans l'un des numéros. Selon les experts, d'ici 3 à 5 ans, on peut s'attendre à une invasion de robots manipulateurs, qui seront automatiquement capables de créer beaucoup de contrefaçons.

Nouveau monde courageux

Il existe de plus en plus de projets qui ajustent l'image de l'information à la perception d'utilisateurs spécifiques. Un exemple de leur travail est l'action récente de trois portails libyens, qui ont publié une information qui aurait été publiée dans le numéro d'Izvestia le 20 novembre. Les créateurs du faux ont modifié la première page du journal, y publiant un message sur les négociations entre le feld-maréchal Khalifa Haftar et le Premier ministre du gouvernement d'entente nationale (PNS) Fayez Sarraj. Le faux, en caractères Izvestia, était accompagné d'une photo des deux dirigeants prise en mai 2017. L'étiquette avec le logo de la publication a été coupée du numéro publié le 20 novembre, et tous les autres textes de la page du numéro du 23 octobre.

Du point de vue des spécialistes, dans un avenir prévisible, de telles falsifications peuvent se faire automatiquement.

The Truman Show - 2019: Comment les réseaux de neurones ont appris à truquer l'image d'actualité
The Truman Show - 2019: Comment les réseaux de neurones ont appris à truquer l'image d'actualité

« Les technologies d'intelligence artificielle sont désormais complètement ouvertes et les appareils de réception et de traitement des données se miniaturisent et deviennent de moins en moins chers », Yuri Vilsiter, docteur en sciences physiques et mathématiques, professeur à l'Académie des sciences de Russie, chef du département « GosNIIAS » de la FSUE, dit Izvestia. - Par conséquent, il est fort probable que dans un avenir proche, même pas l'État et les grandes entreprises, mais simplement des particuliers, pourront nous écouter et nous espionner, ainsi que manipuler la réalité. Dans les années à venir, il sera possible, en analysant les préférences de l'utilisateur, de l'influencer à travers des fils d'actualités et des contrefaçons très astucieuses.

Selon Yuri Vilsiter, les technologies qui peuvent être utilisées pour une telle intervention dans l'environnement mental existent déjà. En théorie, l'invasion de robots robotiques peut être attendue dans quelques années, a-t-il déclaré. Un point limitatif ici peut être la nécessité de collecter de grandes bases de données d'exemples de réponses de personnes réelles à des stimuli artificiels avec suivi des conséquences à long terme. Un tel suivi nécessitera probablement plusieurs années de recherche supplémentaires avant que des attaques ciblées ne soient systématiquement obtenues.

Attaque visuelle

Alexey Parfentiev, chef du département analytique chez SearchInform, est également d'accord avec Yuri Vilsiter. Selon lui, les experts prédisent déjà des attaques sur les réseaux de neurones, bien qu'il n'y ait pratiquement plus d'exemples de ce type.

- Des chercheurs de Gartner pensent que d'ici 2022, 30 % de toutes les cyberattaques viseront à corrompre les données sur lesquelles le réseau de neurones est formé et à voler des modèles d'apprentissage automatique prêts à l'emploi. Ensuite, par exemple, les véhicules sans pilote peuvent soudainement commencer à confondre les piétons avec d'autres objets. Et nous ne parlerons pas de risque financier ou de réputation, mais de la vie et de la santé des gens ordinaires, estime l'expert.

Des attaques contre les systèmes de vision par ordinateur sont actuellement menées dans le cadre de la recherche. Le but de telles attaques est de faire en sorte que le réseau de neurones détecte quelque chose dans l'image qui n'est pas là. Ou, au contraire, de ne pas voir ce qui était prévu.

The Truman Show - 2019: Comment les réseaux de neurones ont appris à truquer l'image d'actualité
The Truman Show - 2019: Comment les réseaux de neurones ont appris à truquer l'image d'actualité

"L'un des sujets en développement actif dans le domaine de la formation des réseaux de neurones est ce que l'on appelle les attaques contradictoires ("attaques contradictoires. "- Izvestia)", a expliqué Vladislav Tushkanov, analyste Web chez Kaspersky Lab. - Dans la plupart des cas, ils sont destinés aux systèmes de vision par ordinateur. Pour mener une telle attaque, dans la plupart des cas, vous devez avoir un accès complet au réseau de neurones (les attaques dites de boîte blanche) ou aux résultats de son travail (attaques de boîte noire). Il n'y a aucune méthode qui puisse tromper un système de vision par ordinateur dans 100% des cas. De plus, des outils ont déjà été créés qui vous permettent de tester la résistance des réseaux de neurones aux attaques adverses et d'augmenter leur résistance.

Au cours d'une telle attaque, l'attaquant essaie de modifier d'une manière ou d'une autre l'image reconnue afin que le réseau de neurones ne fonctionne pas. Souvent, du bruit se superpose à la photo, semblable à celui qui se produit lorsque l'on photographie dans une pièce mal éclairée. Une personne ne remarque généralement pas bien de telles interférences, mais le réseau neuronal commence à mal fonctionner. Mais pour mener une telle attaque, l'attaquant a besoin d'accéder à l'algorithme.

Selon Stanislav Ashmanov, directeur général de Neuroset Ashmanov, il n'existe actuellement aucune méthode pour traiter ce problème. De plus, cette technologie est accessible à tous: un programmeur moyen peut l'utiliser en téléchargeant le logiciel open source nécessaire depuis le service Github.

The Truman Show - 2019: Comment les réseaux de neurones ont appris à truquer l'image d'actualité
The Truman Show - 2019: Comment les réseaux de neurones ont appris à truquer l'image d'actualité

- Une attaque contre un réseau de neurones est une technique et des algorithmes pour tromper un réseau de neurones, ce qui lui fait produire de faux résultats et, en fait, le casser comme une serrure de porte, - croit Ashmanov. - Par exemple, il est maintenant assez facile de faire croire au système de reconnaissance faciale que ce n'est pas vous, mais Arnold Schwarzenegger devant lui - cela se fait en mélangeant des additifs imperceptibles à l'œil humain dans les données arrivant au réseau de neurones. Les mêmes attaques sont possibles pour les systèmes de reconnaissance et d'analyse de la parole.

L'expert est sûr que cela ne fera qu'empirer - ces technologies sont devenues populaires, les fraudeurs les utilisent déjà et il n'y a aucune protection contre elles. Comme il n'y a aucune protection contre la création automatisée de contrefaçons vidéo et audio.

Contrefaçons profondes

Les technologies Deepfake basées sur le Deep Learning (technologies d'apprentissage en profondeur des réseaux de neurones. - Izvestia) constituent déjà une réelle menace. Les contrefaçons vidéo ou audio sont créées en éditant ou en superposant les visages de personnes célèbres qui sont censées prononcer le texte nécessaire et jouer le rôle nécessaire dans l'intrigue.

« Deepfake vous permet de remplacer les mouvements des lèvres et la parole humaine par de la vidéo, ce qui crée un sentiment de réalisme de ce qui se passe », explique Andrey Busargin, directeur du département de la protection des marques innovantes et de la propriété intellectuelle chez Group-IB. - De fausses célébrités « proposent » aux utilisateurs des réseaux sociaux de participer au tirage de prix de valeur (smartphones, voitures, sommes d'argent), etc. Les liens de telles publications vidéo conduisent souvent à des sites frauduleux et de phishing, où les utilisateurs sont invités à saisir des informations personnelles, y compris des informations de carte bancaire. De tels schémas constituent une menace à la fois pour les utilisateurs ordinaires et pour les personnalités publiques mentionnées dans les publicités. Ce type d'escroquerie commence à associer des images de célébrités à des escroqueries ou à des produits annoncés, et c'est là que nous nous heurtons à des dommages de marque personnelle, dit-il.

The Truman Show - 2019: Comment les réseaux de neurones ont appris à truquer l'image d'actualité
The Truman Show - 2019: Comment les réseaux de neurones ont appris à truquer l'image d'actualité

Une autre menace est associée à l'utilisation de « faux votes » pour la fraude téléphonique. Par exemple, en Allemagne, des cybercriminels ont utilisé le voice deepfake pour obliger le responsable d'une filiale du Royaume-Uni à virer en urgence 220 000 € lors d'une conversation téléphonique, se faisant passer pour un chef d'entreprise.sur le compte d'un fournisseur hongrois. Le patron de la firme britannique a soupçonné une ruse lorsque son "patron" a demandé un deuxième mandat-poste, mais l'appel est venu d'un numéro autrichien. À ce moment-là, la première tranche avait déjà été transférée sur un compte en Hongrie, d'où l'argent a été retiré au Mexique.

Il s'avère que les technologies actuelles vous permettent de créer une image d'actualité individuelle remplie de fausses nouvelles. De plus, il sera bientôt possible de distinguer les faux des vrais vidéo et audio uniquement par le matériel. Selon les experts, les mesures interdisant le développement de réseaux de neurones ont peu de chances d'être efficaces. Par conséquent, nous vivrons bientôt dans un monde dans lequel il faudra constamment tout revérifier.

« Nous devons nous y préparer et cela doit être accepté », a souligné Yuri Vilsiter. - L'humanité n'est pas la première fois à passer d'une réalité à une autre. Notre monde, notre mode de vie et nos valeurs sont radicalement différents du monde dans lequel nos ancêtres vivaient il y a 60 000 ans, il y a 5 000 ans, il y a 2 000 ans et même il y a 200 à 100 ans. Dans un futur proche, une personne sera largement privée d'intimité et donc contrainte de ne rien cacher et d'agir honnêtement. En même temps, rien dans la réalité environnante et dans sa propre personnalité ne peut être pris sur la foi, tout devra être remis en question et constamment revérifié. Mais cette future réalité sera-t-elle désastreuse ? Non. Ce sera tout simplement complètement différent.

Conseillé: