Danger de l'IA
Selon Yuval Noah Harari, l’IA pourrait provoquer une crise financière aux conséquences catastrophiques
L’écrivain et philosophe Yuval Noah Harari a, à plusieurs reprises, soulevé les problèmes existentiels que pose l’IA.
Il est d’ailleurs l’un des premiers signataires de la lettre ouverte de mars dernier “Pause Giant AI Experiments”.
C’est lors d’une interview au Guardian qu’il a alerté récemment sur les menaces que l’IA fait peser sur le système économique mondial et leurs conséquences.
L’arrivée de ChatGPT a suscité un réel engouement mais également de nombreuses craintes. Auteur du fameux bestseller “Sapiens: une brève histoire de l’humanité”, Yuval Noah Harari fait partie de ceux qui ont exprimé leurs inquiétudes envers des IA incontrôlables qui surpasseraient l’être humain.
En mai dernier, il déclarait lors d’une interview à à l’émission Tout un monde : “L’IA est fondamentalement différente de toutes les inventions de l’histoire de l’humanité.
Les technologies inventées dans le passé nous ont toujours donné du pouvoir, parce qu’aucun outil n’était capable de prendre des décisions par lui-même, ni de générer de nouvelles idées”.
Selon ses déclarations au Guardian, contrairement aux armes nucléaires, il n’y a pas de “grand scénario dangereux” clairement compris par tous en ce qui concerne l’IA, ce qui rend difficile la prévision de ses dangers.
Il met à nouveau en garde contre le fait que l’IA, en raison de sa capacité à prendre des décisions autonomes, à générer de nouvelles idées et à apprendre de manière autonome, présente une multitude de scénarios dangereux, chacun ayant une probabilité relativement faible, mais qui, combinés, pourraient constituer une me
L’IA pourrait engendrer une crise financière majeure Harari met en lumière le secteur financier comme étant particulièrement vulnérable à l’IA en raison de sa nature basée sur les données.
Il envisage un scénario où l’IA aurait un contrôle accru sur le système financier mondial, créant des instruments financiers si complexes que seules les IA pourraient les comprendre.
Cette opacité pourrait, selon lui, conduire à une crise financière majeure, surpassant peut-être celle de 2007-2008 provoquée par des instruments financiers tels que les obligations adossées à des créances (CDO).
Bien qu’il ne considère pas une crise financière provoquée par l’IA comme une menace existentielle en soi, il souligne que les conséquences indirectes, telles que des conflits ou des guerres déclenchés par une telle crise, pourraient avoir des répercussions catastrophiques sur les plans économique, social et politique. L’urgence d’une coopération mondiale autour de la sécurité de l’IA
L’auteur a salué la volonté de coopération internationale lors du sommet mondial sur l’IA et autour de la création de l’AI safety Institute.
Il préconise cependant de doter les instituts de sécurité de l’IA d’experts comprenant l’impact potentiel de l’IA sur des secteurs spécifiques, tels que la finance.
Il a également insisté sur le fait que l’accent ne devrait pas être mis sur des réglementations détaillées, mais plutôt sur la mise en place d’institutions régulatrices agiles capables de réagir rapidement aux évolutions technologiques.
Il déclare au Guardian : “Nous devons créer le plus rapidement possible des institutions de réglementation puissantes capables d’identifier et de réagir aux dangers au fur et à mesure qu’ils se présentent, en partant du principe que nous ne pouvons pas prévoir tous les dangers et problèmes à l’avance et légiférer contre eux à l’avance. Cela devrait être l’effort principal, pas l’effort d’écrire maintenant une réglementation très longue et compliquée qui, au moment où elle sera adoptée par le parlement ou le Congrès, pourrait être obsolète”.
Selon le philosophe, il n’y a pas de déterminisme technologique : quelles que soient les menaces posées par l’IA, rien n’est inévitable, l’humain a toujours le choix…nace existentielle pour la civilisation humaine.
2 comments
Stephan Fey said:
Selon une étude du cabinet de conseil McKinsey, la demande en électricité pour la numérisation et les projets d'IA devrait atteindre plus de 150 térawattheures d'ici 2030, soit trois fois plus qu'aujourd'hui.
Traduit avec DeepL.com (version gratuite)
Annaig56 replied to Stephan Fey: