Après l’interview de Marc Rameaux et l’analyse de Philippe Stoop, nous poursuivons notre série d’enquête sur Chat GPT. Cette fois avec Christian Semperes, expert énergéticien, auteur dans nos colonnes de nombreuses analyses. Il s’est collé à l’exercice en interrogeant le robot conversationnel d’OpenAI sur le nucléaire civil…
Une expertise technique limitée
Lorsqu’on demande à ChatGPT une description d’un réacteur nucléaire civil, ses réponses sont fidèles de type encyclopédie sans être néanmoins très précises. Elles s’adressent donc à un public non averti. Autrement dit, dans la description générale, on peut lui faire confiance.
Cependant, lorsqu’on lui demande des informations plus précises, certaines valeurs physiques caractéristiques d’un réacteur REP, par exemple, sont fausses. Le robot semble mal programmé, par l’humain qui n’était pas, à l’évidence, suffisamment expert du domaine. Voilà ce que dit le robot sur la température de sortie de la vapeur sortant du générateur de vapeur.
« En général, la température de la vapeur à la sortie du générateur de vapeur dans une centrale nucléaire REP est d’environ 285 à 315°C, et la pression est d’environ 6 à 7 MPa (mégapascals), ce qui correspond à environ 60 à 70 fois la pression atmosphérique. Ces valeurs peuvent varier légèrement en fonction des caractéristiques de chaque centrale nucléaire, mais elles sont typiques des centrales REP de cette taille. »
Cette information est totalement fausse. La température de la vapeur en sortie de générateur de vapeur, coté secondaire donc, varie entre 0% et 100% de puissance, de 286°C à 272°C pour un réacteur de 900MW. En effet, contrairement à ce que dit ChatGPT, la température de la vapeur baisse lorsque la puissance augmente, alors que la température de l’eau en sortie du cœur, elle, augmente de 286°C à 323,2°C. C’est ce qu’on appelle le « compromis Tm/Tv » caractéristique des réacteurs REP. Le Sapiens qui aura programmé ChatGPT aura confondu la température de sortie de l’eau chaude primaire et la température de sortie de la vapeur secondaire.
De même, le robot donne des valeurs internes au combustible totalement farfelues pour un réacteur REP. Je le cite :
« Le combustible nucléaire dans le cœur du réacteur atteint des températures très élevées pendant le fonctionnement de la centrale, généralement supérieures à 2 000°C. »
Cette valeur de 2000°C est fausse. On comprendra assez facilement que la température au point le plus chaud au cœur du combustible ne peut pas excéder la température de fusion de la gaine en zircaloy de ce même combustible! La température de fusion du zircaloy étant de l’ordre de 1 800°C à aucun moment, le cœur du combustible ne peut être à une température supérieure à la température de fusion de la gaine comme l’affirme le robot. Sous peine de fusion de la gaine, ce qu’on veut bien évidemment éviter, même en fonctionnement accidentel. D’ailleurs, tous les mois, une carte de flux est réalisée pour s’assurer que la puissance extraite de l’élément combustible le plus chaud permet de maintenir une température en deçà de 1208°C. Cette température maximale autorisée en fonctionnement normal garantit l’absence d’atteinte de la fusion du cœur en cas d’accident. C’est le but ! Le Sapiens qui aura programmé ChatGPT n’était pas un expert du domaine, à l’évidence.
Cependant, lorsqu’on lui demande de comparer le niveau de sûreté de deux types de réacteurs, un REP réacteur à eau pressurisée et un REB un réacteur à eau bouillante, ChatGPT s’en sort très bien ! Il n’est pas tombé dans le piège tendu ! Il indique à juste titre que
« Il est difficile de répondre de manière générale à la question de savoir si une centrale nucléaire à eau pressurisée (REP) est plus sûre ou moins sûre qu’une centrale nucléaire à eau bouillante (REB), car cela dépend de nombreux facteurs, tels que la conception de la centrale, l’entretien, la formation du personnel, etc. »
Bravo !
Des biais sur les moyens de production d’électricité
Par contre, lorsqu’on lui demande une comparaison sur divers moyens de production d’électricité, là … ça se complique ! Ses conclusions font apparaître des biais qui ne sont que la traduction des biais cognitifs et des croyances de l’humain qui l’a programmé. Logique ! Lorsqu’on demande au robot de comparer l’impact carbone de l’énergie nucléaire civile et des énergies renouvelables, voilà ce qu’il donne en extrait. Je cite :
« En général, les énergies renouvelables telles que l’énergie éolienne et l’énergie solaire ont une empreinte carbone plus faible que l’énergie nucléaire pendant leur cycle de vie. La production et l’installation des équipements pour la production d’énergies renouvelables peuvent générer des émissions de CO2, mais une fois en fonctionnement, ces sources d’énergie n’émettent pas de gaz à effet de serre. »
Sur ce type de raisonnement, on pourrait donc en conclure que le nucléaire en exploitation émet des gaz à effet de serre contrairement au solaire et à l’éolien. Ce qui est faux. Contrairement aux énergies fossiles gaz et charbon, le nucléaire n’émet aucun gaz à effet de serre en fonctionnement, comme les ENR. Les chiffres de l’empreinte carbone des différents moyens de production calculés par des instances internationales comme le GIEC et nationales comme l’ADEME, parlent d’eux-mêmes. Evidemment, ces instances ne prennent pas l’empreinte carbone de la seule période d’exploitation, mais sur la totalité du cycle de construction, exploitation, démantèlement et gestion des déchets compris.
Les chiffres de l’ADEME sur l’empreinte carbone des moyens de production d’électricité :
Nucléaire : 6g CO2/kWh
Eolien terrestre : 13g CO2/kWh
Solaire : 55g CO2/kWh
Par ailleurs, ChatPGT a oublié un point important quand on compare l’impact carbone des moyens de production d’électricité. Pour que la comparaison de l’empreinte carbone des moyens de production soit possible, c’est à dire à utilisation comparable, il faut tenir compte de leur facteur de charge, c’est à dire sa capacité à produire lorsque le client a besoin d’électricité au regard de la puissance installée. Autrement dit, y a-t-il du vent et du soleil lorsque le client appuie sur l’interrupteur ? Si oui, l’impact carbone des ENR s’applique. Sinon, l’énergie solaire et l’énergie éolienne ont besoin d’autres moyens de production pour garantir la satisfaction du client et là, c’est l’impact carbone du moyen de substitution qui s’applique. Avec des facteurs de charge de 15% pour l’énergie solaire et de 22% pour l’éolien terrestre, il faut d’autres moyens de production pour être comparé au facteur de charge du nucléaire. Suivant l’énergie qui compense le manque de vent et/ou de soleil, le gaz ou le charbon par exemple, l’empreinte carbone explose, évidemment. S’agit-il d’un manque de connaissance de ChatGPT ou d’un oubli volontaire ?
Et même un avis sur la sécurité de Fessenheim !
Pour rester sur les biais cognitifs, posons la question suivante à ChatGPT. Pourquoi la centrale de Fessenheim a-t-elle été arrêtée ? Voici sa réponse, extrait de la conclusion.
« En somme, la décision de fermer la centrale nucléaire de Fessenheim était motivée par des considérations de sécurité, environnementales et politiques. »
Je laisse le lecteur juge de la réponse de ChatGPT, au regard du dernier rapport de l’Autorité de sûreté nucléaire en 2019 sur l’évaluation du niveau de sûreté de la dernière année de fonctionnement de Fessenheim. Je cite le résumé :
« L’ASN considère que la performance de la centrale nucléaire de Fessenheim reste à un niveau satisfaisant en matière de sûreté nucléaire, tant au plan de l’exploitation des réacteurs que le mise en œuvre des programmes de maintenance des installations ; l’installation se situe favorablement par rapport à la moyenne nationale dans les domaines de la sûreté et de l’environnement, et dans la moyenne dans le domaine de la radioprotection. » Si, comme l’affirme ChatGPT, la centrale de Fessenheim présentait « des risques en matière de sécurité et d’environnement », ce n’est pas le pouvoir politique qui aurait ordonné son arrêt, mais l’Autorité de Sûreté, elle-même, qui a les pleins pouvoirs dans ce domaine.
Après « vu à la TV », « Vu sur ChatGPT »
Faut-il s’émerveiller devant un robot qui sait tout et nous dit papa/maman ? Doté d’une « intelligence artificielle », faut-il s’agenouiller devant un robot fait Dieu par Sapiens ? Faut-il garder son esprit critique face à un robot programmé par Sapiens lui-même ? Faut-il le fuir au regard du risque que « notre intelligence naturelle » se programme non-consciemment à partir de « l’intelligence artificielle » qui semble fournir la VÉRITÉ, SA vérité ? Comme pour toute invention de Sapiens, ChatGPT est une invention humaine, il y a du très bon et du très mauvais EN MÊME TEMPS. Regardez le nucléaire civil inventé par Sapiens, d’un coté qui traite le cancer et d’un autre qui peut le provoquer… Concernant l’impact d’un robot sur le cerveau de Sapiens, la difficulté réside sur son propre fonctionnement. Le cerveau humain est une machine à apprendre et à se programmer, non-consciemment. De plus, le cerveau de Sapiens privilégie toujours l’instinct de survie à tout le reste. Il a donc besoin d’éléments simples qu’il stocke pour réagir vite en cas d’urgence. Si notre cerveau n’a pas la connaissance suffisante du sujet sur lequel ChatPGT nous informe et nous formate non consciemment, le risque réside dans le formatage de masse à grande échelle et très rapidement sur des informations partielles, orientées voire fausses. Particulièrement, lorsqu’on parle de danger et de risque. Attention de ne pas passer de « vu à la télé » comme parole d’évangile à « vu sur les réseaux sociaux » et maintenant à « vu sur ChatGPT ».
Notre série ChatGPT
Agriculture numérique : de nouveaux outils pour la science à la ferme
Project Maven, Drone de Surveillance Eye In the Sky…. Qui empêchera les usages abusifs de l’IA ?
Autres articles de Christian Semperes
Le couple franco-allemand, « je t’aime ! » « Moi non plus ! »
Si chatgpt est une IA les erreurs ou commentaires avérés qu’il peut fournir ne dependent absolument pas de sa programmation et en l’occurence d’une mauvaise programmation comme écrit dans l’article à propos d’une erreur de chatgpt. Ce que peux dire ou ne pas dire une IA ne dépend que de ce que son historique de chatch lui à appris, et n’a donc rien à voir avec sa programmation dont l’algorithme est de simuler l’intelligence (comme son nom l’indique), c’est à dire accroitre ses connaissances par les échanges qu’il aura durant sa vie avec l’exterieur, comme nous le faisons nous mêmes. Ce qui est programmé est déterministe et ne permet pas d’accroitre le bagage intellectuel de l’homme ou de l’IA, qui n’ont ni l’un ni l’autre la science infuse.
Serge Rochain, Narbonne
https://www.editions-complicites.fr/pages-auteurs/serge-rochain/
https://www.istegroup.com/fr/auteur/serge-rochain/
http://astronomie.narbonne.free.fr/
http://climso.fr
Merci pour votre commentaire.
La qualité d’un produit se mesure au degré de satisfaction des besoins exprimés ou implicites. Quand on pose une question, le besoin explicite et/ou implicite est d’obtenir une réponse juste. Ou alors, il conviendrait d’associer systématiquement aux réponses un commentaire attirant l’attention de celui qui a posé la question sur la possible réponse erronée, ou partielle, ou biaisée. Ce qui n’est pas le cas. La facilité de réponse peut amener à « faire confiance » aveuglément du type « vu à la télé », « vu sur les réseaux sociaux » et maintenant « vu sur ChatGPT ». C’est tout ce que je voulais dire.
C’est dommage parce que quand on pose la question à ChatGPT lui-même sur la qualité de ses réponses, il précise ses possibles erreurs en faisant son autocritique (!).
Le risque de ce genre d’outil en libre service et sans régulation, sans contrôle et sans éthique est la programmation de masse sur des biais cognitifs à la vitesse d’internet. Certains pourraient être tentés d’inonder internet de biais cognitifs qui deviendraient « statistiquement » la norme pour ChatGPT. Si ce n’est pas déjà fait.
Il y a du très bon et du très mauvais EN MÊME TEMPS dans tout ce que crée Sapiens. Il faut juste le savoir et garder son esprit critique.
Une ia n’as pas de reponse programmée, c’est une reponse statistique pour faire plaisir à celui qui pose la question. Elle a une base de données d’apprentissage, et par conséquent, son niveau est dans la moyenne des humains. Donc pas ouf
Le sapiens est peut être expert en Énergie nucléaire, mais c’est clair qu’il ne connaît rien à L’IA. Tout d’abord comme ça à été dit les programmes IA, ne sont pas déterministes mais grâce à un fonctionnement d’apprentissage simulant quelque part les neurones, le programme arrive à donner des réponses. En outre cette IA n’est pas spécialisé dans un domaine précis, ce n’est qu’une IA conversationnelle, elle essai de simuler un conversation intelligente en se basant sur les données qu’elle a sous la main, et c’est donc déjà beaucoup pour ce qu’elle est.
« des biais qui ne sont que la traduction des biais cognitifs et des croyances de l’humain qui l’a programmé »
Personne n’a « programmé » ChatGPT, ses biais proviennent des millions de textes – romans, publications, wikipedia, etc. – qu’il a ingurgités.
Et comme c’est un modèle probabiliste, ses réponses – et donc ses éventuels biais – seront différentes à chaque fois, même en lui reposant la même question.