Geoffrey Hinton, chercheur pionnier et "parrain de l'IA", a démissionné de Google pour parler plus librement des dangers de la technologie qu'il a contribué à créer.
Au cours de sa carrière de plusieurs décennies, les travaux pionniers de Geoffrey Hinton dans le domaine de l'apprentissage profond et des réseaux neuronaux ont jeté les bases d'une grande partie de la technologie actuelle de l'IA.
Certains des dangers des chatbots d'IA sont "assez effrayants", a déclaré M. Hinton à la BBC. "Pour l'instant, ils ne sont pas plus intelligents que nous, pour autant que je sache. Mais je pense qu'ils pourraient le devenir bientôt".
Dans une interview accordée à la MIT Technology Review, M. Hinton a également évoqué les "mauvais acteurs" qui pourraient utiliser l'IA d'une manière susceptible d'avoir des conséquences néfastes pour la société, comme la manipulation d'élections ou l'incitation à la violence.
Au cœur du débat sur l'état de l'IA se trouve la question de savoir si les plus grands dangers se situent dans le futur ou dans le présent. D'un côté, il y a les scénarios hypothétiques de risques existentiels causés par des ordinateurs surpassant l'intelligence humaine. De l'autre, on s'inquiète des technologies automatisées qui sont déjà largement déployées par les entreprises et les gouvernements et qui pourraient causer des dommages dans le monde réel.
"Pour le meilleur ou pour le pire, le moment du chatbot a fait de l'IA une conversation nationale et internationale qui n'est pas seulement composée d'experts et de développeurs en IA", a déclaré Alondra Nelson, qui a dirigé jusqu'en février le Bureau de la politique scientifique et technologique de la Maison Blanche et a rédigé des lignes directrices sur l'utilisation responsable des outils d'IA.
Un certain nombre de chercheurs en IA s'inquiètent depuis longtemps des préjugés liés à la race, au sexe et à d'autres formes de partialité dans les systèmes d'IA, notamment les grands modèles de langage textuels formés à partir de grandes quantités de textes humains, qui peuvent renforcer la discrimination dans la société.
"Nous devons prendre du recul et nous interroger sur les besoins de ceux qui sont au cœur de la discussion sur les risques", a déclaré Sarah Myers West, directrice de l'institut à but non lucratif AI Now. "Les dommages causés par les systèmes d'IA aujourd'hui ne sont pas répartis de manière égale. Ils exacerbent les schémas d'inégalité existants".
M. Hinton est l'un des trois pionniers de l'IA qui ont remporté le prix Turing 2019, une distinction qui est devenue la version du prix Nobel de l'industrie technologique. Les deux autres lauréats, Yoshua Bengio et Yann LeCun, ont également exprimé leurs inquiétudes quant à l'avenir de l'IA.
Beaucoup pensent que l'IA est quelque chose de nouveau, mais ce n'est pas le cas. L'IA existe depuis très longtemps.
De 1957 à 1974, l'IA a prospéré. Les ordinateurs pouvaient stocker davantage d'informations et sont devenus plus rapides, moins chers et plus accessibles. Les algorithmes d'apprentissage automatique se sont également améliorés et les gens ont appris à mieux savoir quel algorithme appliquer à leur problème. Les premières démonstrations, telles que le General Problem Solver de Newell et Simon et l'ELIZA de Joseph Weizenbaum, se sont révélées prometteuses pour la résolution de problèmes et l'interprétation du langage parlé, respectivement. Ces succès, ainsi que le plaidoyer de chercheurs de premier plan (notamment les participants à la DSRPAI), ont convaincu des agences gouvernementales telles que la Defense Advanced Research Projects Agency (DARPA) de financer la recherche sur l'IA dans plusieurs institutions. Le gouvernement était particulièrement intéressé par une machine capable de transcrire et de traduire le langage parlé, ainsi que par le traitement de données à haut débit. L'optimisme était grand et les attentes encore plus élevées. En 1970, Marvin Minsky déclarait à Life Magazine : "Dans trois à huit ans, nous aurons une machine dotée de l'intelligence générale d'un être humain moyen". Cependant, bien que la preuve de principe ait été apportée, il restait un long chemin à parcourir avant d'atteindre les objectifs finaux que sont le traitement du langage naturel, la pensée abstraite et l'autoreconnaissance.
Dans les années 1980, l'IA a été relancée par deux sources : une expansion de la boîte à outils algorithmique et une augmentation des fonds. John Hopfield et David Rumelhart ont popularisé les techniques d'"apprentissage profond", qui permettaient aux ordinateurs d'apprendre en s'appuyant sur l'expérience. D'autre part, Edward Feigenbaum a introduit les systèmes experts qui imitent le processus de prise de décision d'un expert humain. Le programme demandait à un expert d'un domaine comment réagir dans une situation donnée et, une fois qu'il avait appris à le faire pour pratiquement toutes les situations, les non-experts pouvaient recevoir des conseils de ce programme. Les systèmes experts ont été largement utilisés dans les industries. Le gouvernement japonais a largement financé les systèmes experts et d'autres projets liés à l'IA dans le cadre de son projet d'ordinateur de cinquième génération (Fifth Generation Computer Project - FGCP). De 1982 à 1990, il a investi 400 millions de dollars dans le but de révolutionner le traitement informatique, de mettre en œuvre la programmation logique et d'améliorer l'intelligence artificielle. Malheureusement, la plupart des objectifs ambitieux n'ont pas été atteints. Toutefois, on peut affirmer que les effets indirects du FGCP ont inspiré une jeune génération talentueuse d'ingénieurs et de scientifiques. Quoi qu'il en soit, le financement du FGCP a cessé et l'intelligence artificielle est tombée dans l'oubli.
Paradoxalement, en l'absence de financement public et de battage médiatique, l'IA a prospéré. Au cours des années 1990 et 2000, de nombreux objectifs historiques de l'intelligence artificielle ont été atteints. En 1997, le champion du monde d'échecs en titre et grand maître Gary Kasparov a été battu par Deep Blue, un programme informatique de jeu d'échecs d'IBM. Ce match très médiatisé était la première défaite d'un champion du monde d'échecs en titre face à un ordinateur et a constitué un grand pas en avant vers un programme de prise de décision artificiellement intelligent. La même année, le logiciel de reconnaissance vocale, développé par Dragon Systems, a été mis en œuvre sous Windows. Il s'agit là d'un autre grand pas en avant, mais dans la direction de l'interprétation du langage parlé. Il semble qu'il n'y ait pas de problème que les machines ne puissent traiter. Même les émotions humaines étaient prises en compte, comme en témoigne Kismet, un robot mis au point par Cynthia Breazeal, capable de reconnaître et d'exprimer des émotions.
Nous vivons aujourd'hui à l'ère du "big data", une ère où nous avons la capacité de collecter d'énormes quantités d'informations trop lourdes à traiter pour une personne. L'application de l'intelligence artificielle à cet égard a déjà été très fructueuse dans plusieurs industries telles que la technologie, la banque, le marketing et le divertissement. Nous avons vu que même si les algorithmes ne s'améliorent pas beaucoup, les données volumineuses et l'informatique massive permettent simplement à l'intelligence artificielle d'apprendre par la force brute. Il est peut-être évident que la loi de Moore ralentit un peu, mais l'augmentation du nombre de données n'a certainement pas perdu de son élan. Les percées dans les domaines de l'informatique, des mathématiques ou des neurosciences sont autant de portes de sortie potentielles à travers le plafond de la loi de Moore.
Cela répond immédiatement à la question de savoir si et depuis quand les élections peuvent être truquées.
コメント