Google a publié une série de directives pour créer une "IA responsable"

Il y a tellement d'applications d'intelligence artificielle qui rendent notre vie quotidienne tellement plus facile et plus productive. Au rythme de l'innovation, tout peut être fait avec une seule commande.

L'IA est plus accessible à un nombre croissant de personnes dans le monde entier, mais comme cette technologie crée de nouvelles possibilités d'amélioration et d'aide au quotidien, ses progrès soulèvent également des questions sur son fonctionnement - par exemple, quels problèmes elle peut causer si elle n'est pas développée de manière responsable.

Comme son nom l'indique, c'est une intelligence créée par l'homme, mais réalisée par des machines et qui a, dans une certaine mesure, les mêmes capacités que les humains: elle apprend, s'améliore et est capable de fonctionner dans certains domaines.

Quand on parle d'intelligence artificielle, deux grandes écoles de pensée se heurtent: ceux qui pensent que c'est un outil, pas plus, et ceux qui croient que ce n'est qu'une question de temps avant que cela ne devienne une menace pour la race humaine.

Au fur et à mesure que nos capacités et possibilités d'IA se développent, tNous verrons également qu'il sera utilisé à des fins dangereuses ou malveillantes. C'est pourquoi ceux qui voient cette technologie comme une menace la considèrent avec suspicion et craint de l'impact qu'elle peut avoir sur leur vie. Certaines personnalités célèbres comme Elon Musk en font partie.

Le patron de Tesla et SpaceX a déjà averti plus d'une fois: l'IA surclassera capacités cognitives humaines. Musk pense que cette technologie menacera les humains à l'avenir, en particulier sur le lieu de travail.

C'est aussi pourquoi sa société Neuralink travaille sur des interfaces cerveau-machine qui seront insérées dans le crâne pour préparer l'humanité à un avenir "fatal" où les robots le gouverneront. La vérité est que certains films de science-fiction ont également effrayé les gens, présentant des futurs dystopiques dans lesquels l'IA peut contrôler les humains.

Les chercheurs disent qu'une IA n'a pas de chance d'afficher des émotions humaines comme l'amour ou la haine et qu'il n'y a aucune raison de s'attendre à ce que l'IA devienne intentionnellement gentille ou méchante.

Dans ce sens, Google s'inquiète du danger que l'IA peut poser lorsque vous ne vous développez pas avec soin et la façon dont vous interagissez avec les gens. L'IA doit apprendre comme un être humain, mais rester efficace et ne pas devenir une machine dangereuse. Google a été un acteur majeur dans le développement de l'IA.

Avec son programme de recherche du Pentagone, «Project Maven», la société a «formé» l'IA à la classification des objets dans les images de drones. En d'autres termes, il a appris aux drones à comprendre ce qu'ils regardent.

Google affirme maintenant que l'intelligence artificielle doit vivre avec des biais et l'entreprise veut faire quelque chose à ce sujet. Pour ce faire, Google a lancé des programmes appropriés sur le thème de «l'IA responsable».

Deux des principes fondamentaux de l'IA de Google sont "être responsable envers les gens" et "éviter de créer ou de renforcer des préjugés injustes". Cela inclut le développement de systèmes d'intelligence artificielle interprétables qui placent les personnes au premier plan de chaque étape du processus de développement, tout en garantissant que les préjugés injustes qu'un humain peut avoir ne se reflètent pas dans les résultats d'un modèle.

Selon cette directive, Google s'efforce de développer l'intelligence artificielle de manière responsable et établit un certain nombre de domaines d'application spécifiques qu'il ne poursuivra pas, tels que la non-mise en œuvre de l'intelligence artificielle dans des technologies qui peuvent causer des dommages ou des blessures aux personnes.

Google s'efforcera de garantir que les informations disponibles via les modèles d'IA être précis et de haute qualité. De plus, la technologie «doit rendre des comptes aux gens, sous la direction et le contrôle humains».

Les algorithmes et les ensembles de données d'intelligence artificielle peuvent refléter, renforcer et réduire les biais injustes. En ce sens, Google s'efforcera d'éviter les impacts injustes sur les personnes, en particulier ceux liés à des caractéristiques sensibles telles que la race, l'origine ethnique, le sexe, le revenu, la nationalité ou les convictions politiques ou religieuses, entre autres.

source: https://ai.google


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont marqués avec *

*

*

  1. Responsable des données: Miguel Ángel Gatón
  2. Finalité des données: Contrôle du SPAM, gestion des commentaires.
  3. Légitimation: votre consentement
  4. Communication des données: Les données ne seront pas communiquées à des tiers sauf obligation légale.
  5. Stockage des données: base de données hébergée par Occentus Networks (EU)
  6. Droits: à tout moment, vous pouvez limiter, récupérer et supprimer vos informations.