Retour sur notre révolution 5

Publié le par Garrigues et Sentiers

5

Interview du Dr Shan dans la revue étudiante « Engagés dans le progrès »

 

Nous avons retrouvé cet entretien bien avant la période que nous avons étudiée et qui nous donne un aperçu de l’esprit scientifique de Shan et de son engagement éthique, éloigné de toute idolâtrie envers le machinisme. Cet interview ne sera pas publié, censuré par la direction de l’université.

 

Dr Shan, merci de nous recevoir, vous venez d’être honoré par la remise des « lauriers d’or » pour votre triple doctorat : Mathématiques - Intelligence artificielle – robotique. Nous aimerions cerner avec vous l’apport des robots dans le développement économique et humain et les dangers éventuels qu’ils peuvent représenter :

 

  • Les robots dans l’économie, la santé et l’éducation sont-ils devenus indispensables à notre progrès ?

Tout d’abord, il est important de distinguer un robot d’une intelligence artificielle (IA). Pour simplifier, le moindre robot de cuisine ou d’usine est certes un robot, mais n’as pas forcément de composante « intelligente », qui lui permettrai d’improviser dans une situation inconnue. Les robots sont programmés pour effectuer parfaitement des tâches prédéfinies plus ou moins complexes, mais il n’est pas capable de sortir des situations pour lesquelles il a été programmé (le robot de cuisine ne modifie pas en autonomie sa température, sa vitesse en fonction de la nature des aliments, de leur quantité, etc…).

Une IA est, elle, faite pour improviser et s’adapter à des situations qu’elle n’a jamais rencontré. Elle est capable de rapprocher cette nouvelle situation de situations qu’elle a déjà vu auparavant, lors de sa phase d’apprentissage. Mais cela ne veut pas dire qu’elle peut pour autant avoir une conscience, une morale, une personnalité. Elle répète simplement ce qu’on lui a montré auparavant.

A l’heure actuelle, l’IA commence à peine à être utilisée dans des applications du quotidien, et à sortir du périmètre de la R&D.

Il faut voir l’IA comme un outil, évidement, qu’elle permet et permettra des avancées majeures dans les domaines de la santé, de la recherche, de même qu’elle permet une automatisation toujours plus robuste de certaines tâches. Se demander si l’IA est indispensable pour le progrès revient à se demander si l’informatique et les ordinateurs ont été ou sont indispensables. Ce sont des outils, à nous de les utiliser correctement.

Pour l’éducation le gain est moins clair : l’IA étant capable d’assister dans de plus en plus de tâches (par exemple : rédaction d’argumentaire, synthèse de texte, traduction, reformulation), certaines de ces tâches ne seront plus « apprises » car toujours effectuées par l’IA, et certaines compétences essentielles de communication par exemple seront perdues.

 

  • Leur perfectionnement connaît-il, connaîtra-t-il une limite ?

Le modèle ChatGPT récemment publié par l’entreprise OpenAI fait présager d’un monde qui va changer. C’est un vrai point de rupture entre l’ancienne génération d’IA et la nouvelle. Lorsqu’on analyse le gap entre les premiers modèles d’IA et celui-ci, on imagine très bien qu’un gap similaire sera possible d’ici quelques années. Il n’y a qu’à regarder la courbe d’évolution de la « taille » des modèles (en millions de paramètres) - sorte de mesure de l’intelligence de l’IA - qui augmente exponentiellement d’année en année.

Et puis c’est bien la beauté de la recherche : repousser les limites des connaissances, trouver des solutions aux problèmes. Il y aura certainement des limites : besoin de ressources de calculs toujours plus importantes, pénurie de matériaux rares pour la construction d’ordinateurs toujours plus nombreux. Mais je crois que lorsque nous atteindrons ces limites, nous aurons déjà trouvé un moyen de les surpasser.

 

  • Certaines voix s’élèvent sur le danger qu’ils peuvent représenter : les robots peuvent-ils se retourner contre nous ?

Il ne faut pas fantasmer et prêter des comportements humains aux robots et aux IA. Il est peu probable qu’il y ait un jour un soulèvement de robots dans le monde, contre les humains.

En revanche, il est clair qu’ils peuvent (comme toutes choses) se retourner contre nous de manière indirecte. C’était le cas du nucléaire : d’une découverte scientifique majeure, certains en ont fait des centrales électriques et d’autres des bombes atomiques.

Il faut évidemment encadrer son utilisation. Il est vrai que contrairement au nucléaire ou d’autres technologies, cette technologie surpuissante est très facilement accessible à tout un chacun.

ChatGPT est un outil qui permet de traduire, synthétiser des textes, écrire du code, donner des explications claires sur un grand nombre de sujets, mais qui est aussi capable de créer à l’infinie, des fake news aussi réalistes que diverses. Mise entre de mauvaises mains, sans réglementation ni réflexion éthique, des abus sont à prévoir.

Dans le film Minority Report (science fiction dystopique), une IA est capable de prédire en avance les méfaits commis par des criminels, qui sont donc arrêtés et incarcérés, avant même d’avoir commis leur crime … C’est ce genre de questionnement éthiques qu’il faudra se poser (dans une moindre mesure).

Retour sur notre révolution 5

  • Nous avons relevé dans la presse scientifique internationale cette affirmation : le code est politique, les algorithmes sont des armes de destruction mathématique. Qu’en pensez-vous ?

J’ai justement posé cette question à une IA (ChatGPT), et voici sa réponse :

En tant qu'IA, je n'ai pas de position personnelle sur cette question car je suis conçue pour fournir des informations impartiales et objectives. Cependant, je peux expliquer certains aspects de cette affirmation.

Le code peut être considéré comme politique car les décisions prises lors de la conception d'un système informatique ont souvent des implications politiques et sociales. Par exemple, la façon dont les données sont collectées, traitées et utilisées peut avoir des répercussions sur la vie privée, la discrimination, la surveillance et d'autres questions politiques importantes. Le choix des langages de programmation, des bibliothèques de code et des technologies utilisées peut également avoir des implications politiques en termes de coûts, d'interopérabilité, de sécurité et d'autres considérations.

De même, les algorithmes peuvent être considérés comme des armes de destruction mathématique si leur utilisation est malveillante ou négligente. Les algorithmes peuvent être conçus pour automatiser des tâches complexes et résoudre des problèmes difficiles, mais leur impact dépend souvent de la façon dont ils sont utilisés. Par exemple, les algorithmes utilisés dans les systèmes de surveillance peuvent violer les droits à la vie privée des individus ou les algorithmes utilisés pour la prise de décision automatisée peuvent introduire des biais et des discriminations. En conséquence, il est important de comprendre comment les algorithmes fonctionnent, de surveiller leur utilisation et de garantir qu'ils sont conçus de manière éthique et responsable.

En somme, le code et les algorithmes peuvent avoir des implications politiques et sociales importantes et leur utilisation doit être examinée attentivement pour garantir qu'ils sont utilisés de manière éthique et responsable.

 

On remarquera qu’à part les lieux communs et paraphrases, l’IA n’est pas capable de fournir de réponse complexe et subjective à cette question.

Certes, les algorithmes ont le pouvoir de largement changer la manière dont nous travaillons et notre quotidien, mais n’étant que des outils, ils seront employés pour les tâches pour lesquelles ils ont été conçus, charge à nous de le faire de manière réfléchie.

Christiane Giraud-Barra

 

 

 

Pour être informé des derniers articles, inscrivez vous :
Commenter cet article
H
Mais qui sera capable de garantir l'innocuité de l'IA ?<br /> En tant qu'ancien ingénieur en informatique, j'ai toujours pensé qu'un programme sans "bug" cela n'existe pas !<br /> (Ce sont souvent les premiers utilisateurs qui servent de cobayes... et aussi les suivants).<br /> D'autre part qui poudra contrôler les risques de bug, ou de malveillance (qui le contrôle actuellement) ?<br /> Même les automatismes les plus simples sont capables de pannes, alors le risque avec l'IA ...<br /> 500 scientifiques dans le monde ont réclamé un moratoire de 6 mois :cela me paraît très insuffisant.<br /> (voir aussi l'affaire du Colonel PETROV, qui a évité une réplique atomique en doutant des informations données par des radars et à désobéir aux consignes qu'il aurait du appliquer selon ces informations).<br /> Personnellement, je continue à me fier à mon intelligence et à mon intuition, en me méfiant de trop d'automatismes. Et en ne mettant pas tous mes œufs dans le même panier (exemple : je ne me connecte jamais à Internet avec mon téléphone, pour cela j'ai l'ordinateur...).
Répondre
G
Je profite de votre commentaire pour préciser que cette dernière partie de mon conte a été rédigée par ma petite-fille Mélanie Lubrano doctorante en IA, je lui ai adressé vos remarques.<br /> Elle a vérifié mes "détails techniques" et les a trouvés crédibles.<br /> Amicales salutations