Bing

L'intelligence artificielle doit être surveillée de près : Brad Smith de Microsoft

Table des matières:

Anonim

Cela peut sembler une blague pour beaucoup, mais jusqu'à il n'y a pas si longtemps, la peur de l'Intelligence Artificielle en la voyait comme une menace pour la race humaine était une phobie assez répandue. En fait, nous l'avons déjà vu dans cette conversation dans notre épisode un de la deuxième saison de Captcha dans lequel nous avons vu à quel point c'est une peur infondée.

Cependant, il semble que tout le monde ne le voit pas de cette façon et beaucoup pensent que Skynet ou Matrix et la révolution des machines approchent à grands pas. L'intelligence artificielle peut être une menace et c'est ainsi qu'au sommet GeekWire 2019, le président de Microsoft, Brad Smith, a donné sa vision, quelque peu pessimiste à ce sujet

L'intelligence artificielle est-elle une menace ?

Smith a donné la raison de ce point de vue quelque peu négatif, l'accident d'avion survenu dans la région du détroit de Puget, dans lequel un avion avec passagers et équipage a subi un accident en raison de un système automatique qu'ils ne pouvaient pas désactiver depuis la cabine le moment venu.

Le logiciel et son principe étaient magnifiques, puisqu'il est chargé de détecter un excès d'inclinaison de l'avion s'il est trop haut, d'abaisser le nez et de diminuer la hauteur en conséquence. Le problème est que dans ce cas, les mesures ont échoué et l'équipage de cabine n'a pas pu désactiver le système avec la fin tragique qui en a résulté.

"

Cette situation a servi d&39;excuse à Brad Smith, qui justifie que l&39;évolution technologique est louable, mais doit toujours être maîtriséeEt dans le cas de l&39;Intelligence Artificielle et des systèmes qui l&39;incorporent, ceux-ci doivent avoir une sorte de bouton de panique ou d&39;urgence qui permet de les désactiver."

Et pour info, ce n'est pas le seul cas. À un niveau plus terrestre et beaucoup plus proche de la grande majorité des utilisateurs, nous avons des cas de personnes écrasées par par des voitures autonomes.

Il s'agit de garantir la primauté des décisions humaines à certains moments et dans certaines circonstances où la prise de décision d'un système basé sur l'intelligence artificielle n'est pas aussi adéquate qu'elle devrait l'être.

Brad Smith n'en finit pas de critiquer l'utilisation de l'Intelligence Artificielle telle que nous la connaissons aujourd'hui. L'ensemble de la société et l'ensemble de l'industrie doivent prendre conscience de la voie qu'ils empruntent :

"

On a vu comment il y a des drones et des machines de guerre>Ce n&39;est qu&39;une partie du problème qui fait affirmer à Smith que le risque éventuel d&39;un développement incontrôlé de l&39;IA doit être étudié et apprentissage automatique (apprentissage automatique). En fait, nous avons déjà vu un avis similaire d&39;un ingénieur Google."

C'est un problème délicat. Le développement d'une IA qui à un moment donné ne pouvait même pas gérer elle-même les systèmes de contrôle imposés par l'humain. Le croisement des idées et des théories est sur la table et donnera beaucoup à dire.

Source | GeekWire

Bing

Le choix des éditeurs

Back to top button