Google interdit la génératrice de deepfake AI de sa plateforme Colab

0 0

Google interdit la génératrice de deepfake AI de sa plateforme Colab

Google interdit la génératrice de deepfake AI de sa plateforme Colab

Google a interdit la formation deepfake AI sur Google Colaboratory. Comme signalé by BleepingComputer a observé les conditions d’utilisation modifiées au cours du week-end.

Colab est né d’une initiative de Google Research fin 2017. Il permet à quiconque de créer et d’exécuter du code Python à l’aide d’un navigateur Web, en particulier pour l’apprentissage automatique, l’enseignement et l’analyse de données. Google permet aux utilisateurs gratuits et payants de Colab d’accéder aux GPU et aux unités de traitement de tenseurs accélérant l’IA.

Au sein de la communauté de recherche sur l’IA, Colab est devenue la plate-forme de facto pour les démos ces dernières années. Les chercheurs qui ont créé du code publient souvent des liens vers des sites Colab dans des référentiels GitHub. Google n’a pas été extrêmement rigoureux avec le matériel Colab, ce qui pourrait ouvrir la voie à des individus peu scrupuleux.

La semaine dernière, les utilisateurs de DeepFaceLab ont reçu un avis d’erreur alors qu’ils tentaient d’exécuter le programme dans Colab. « Vous exécutez peut-être du code interdit, ce qui peut limiter votre utilisation de Colab à l’avenir. »

L’avertissement n’est pas toujours déclenché. Ce journaliste a exécuté sans difficulté l’une des expériences populaires de deepfake Colab, et les utilisateurs de Reddit ont déclaré que FaceSwap fonctionnait toujours. Cela signifie que l’application est basée sur une liste noire plutôt que sur des mots clés, et la communauté Colab doit signaler toute violation de code.

Nous surveillons Colab pour les abus qui vont à l’encontre des normes d’IA de Google tout en soutenant notre objectif d’offrir aux utilisateurs un accès aux TPU et aux GPU. Les deepfakes ont été ajoutés à la liste des activités interdites des runtimes Colab le mois dernier, selon un porte-parole de Google. «Dissuader les abus est un jeu dynamique, et nous ne pouvons pas publier de moyens particuliers car les contreparties peuvent les utiliser pour contourner les systèmes de détection. Nous avons des mécanismes automatiques qui identifient et empêchent les abus. »

Archive.org révèle que Google a modifié les accords Colab à la mi-mai. Les interdictions précédentes sur les attaques par déni de service, le craquage de mot de passe et le torrenting sont restées inchangées.

Les deepfakes se présentent sous diverses formes, mais l’une des plus répandues est le visage d’une personne superposé à un autre. Les deepfakes générés par l’IA peuvent reproduire les mouvements du corps, les microexpressions et les tons de peau mieux que Hollywood CGI dans certaines circonstances.

Les vidéos virales prouvent que les deepfakes peuvent être anodins et agréables. Mais les pirates les exploitent pour extorquer et arnaquer les utilisateurs des réseaux sociaux. Ils ont également été utilisés pour la propagande politique, comme la fabrication de films du président ukrainien Volodymyr Zelensky prononçant un discours sur la guerre civile du pays.

Une source indique que le nombre de deepfakes en ligne est passé de 14 000 à 145 000 en 2019-2021. Selon Forrester Research, les escroqueries deepfake coûteront 250 millions de dollars d’ici 2020.

En ce qui concerne les deepfakes, le problème le plus crucial est la double utilisation, comment cela peut être à la fois une aubaine et un fléau. Il n’existe pas de pratiques éthiques cohérentes à l’échelle de l’industrie concernant l’apprentissage automatique et l’IA, mais il est logique que Google propose son propre ensemble de conventions réglementant l’accès et la capacité à créer des deepfakes, d’autant plus qu’ils sont souvent utilisés pour désinformer et se propager. les fausses nouvelles, qui sont mauvaises et qui s’aggravent.

Os Keyes, professeur auxiliaire à l’Université de Seattle, a soutenu le choix de Google de restreindre les projets deepfake de Colab. Mais il a déclaré que davantage devait être fait pour empêcher leur formation et leur propagation.

Lire aussi : Twitter transfère des équipes loin des espaces, des newsletters et des communautés : rapport

Laisser un commentaire

Votre adresse email ne sera pas publiée.

Abonnez-vous à notre newsletter
Inscrivez-vous ici pour recevoir les dernières nouvelles, mises à jour et offres spéciales directement dans votre boîte de réception.
Vous pouvez vous désabonner à tout moment

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More