Zürcher Nachrichten - "J'ai postulé pour être pape": utiliser ChatGPT et perdre contact avec la réalité

EUR -
AED 4.308628
AFN 73.912502
ALL 95.346222
AMD 431.876654
ANG 2.100325
AOA 1077.010275
ARS 1624.907303
AUD 1.620214
AWG 2.114717
AZN 1.99567
BAM 1.954664
BBD 2.363387
BDT 144.236187
BGN 1.955534
BHD 0.442854
BIF 3493.004263
BMD 1.173213
BND 1.493789
BOB 8.108565
BRL 5.742997
BSD 1.173468
BTN 112.158997
BWP 15.839201
BYN 3.280805
BYR 22994.980073
BZD 2.359989
CAD 1.606862
CDF 2610.399308
CHF 0.915692
CLF 0.02723
CLP 1071.683367
CNY 7.968579
CNH 7.966652
COP 4444.55422
CRC 535.502523
CUC 1.173213
CUP 31.090152
CVE 110.208006
CZK 24.339953
DJF 208.953924
DKK 7.471486
DOP 69.25153
DZD 155.335749
EGP 62.091375
ERN 17.598199
ETB 183.229104
FJD 2.565055
FKP 0.859468
GBP 0.866025
GEL 3.132606
GGP 0.859468
GHS 13.247754
GIP 0.859468
GMD 86.247845
GNF 10296.368033
GTQ 8.95337
GYD 245.495717
HKD 9.184494
HNL 31.204129
HRK 7.532259
HTG 153.306797
HUF 357.564317
IDR 20509.351781
ILS 3.41012
IMP 0.859468
INR 112.20031
IQD 1537.100271
IRR 1539255.809017
ISK 143.599717
JEP 0.859468
JMD 185.41542
JOD 0.831771
JPY 185.042129
KES 151.458414
KGS 102.597132
KHR 4707.445157
KMF 492.749569
KPW 1055.913348
KRW 1749.419401
KWD 0.361549
KYD 0.977828
KZT 544.251427
LAK 25723.271972
LBP 105080.922232
LKR 379.012994
LRD 214.74071
LSL 19.395895
LTL 3.464194
LVL 0.709665
LYD 7.423876
MAD 10.709242
MDL 20.083015
MGA 4903.276184
MKD 61.61994
MMK 2462.520385
MNT 4201.101075
MOP 9.461802
MRU 46.807998
MUR 54.917957
MVR 18.066222
MWK 2034.869611
MXN 20.189237
MYR 4.60428
MZN 74.979969
NAD 19.395647
NGN 1607.458395
NIO 43.186562
NOK 10.769822
NPR 179.447315
NZD 1.974131
OMR 0.451094
PAB 1.173418
PEN 4.021563
PGK 5.110355
PHP 72.070076
PKR 326.889096
PLN 4.251784
PYG 7163.020875
QAR 4.277488
RON 5.20297
RSD 117.376435
RUB 86.616549
RWF 1716.246609
SAR 4.405031
SBD 9.41974
SCR 16.602942
SDG 704.52965
SEK 10.899351
SGD 1.492169
SHP 0.875922
SLE 28.890357
SLL 24601.723031
SOS 670.621747
SRD 43.707478
STD 24283.145961
STN 24.486606
SVC 10.26699
SYP 129.674586
SZL 19.389559
THB 37.935263
TJS 10.971599
TMT 4.106246
TND 3.412735
TOP 2.824816
TRY 53.282768
TTD 7.963339
TWD 36.97323
TZS 3060.799918
UAH 51.57385
UGX 4410.587471
USD 1.173213
UYU 46.661295
UZS 14234.728482
VES 591.632164
VND 30911.823213
VUV 138.818641
WST 3.178581
XAF 655.592812
XAG 0.013566
XAU 0.000249
XCD 3.170667
XCG 2.114762
XDR 0.815347
XOF 655.592812
XPF 119.331742
YER 279.98742
ZAR 19.321943
ZMK 10560.328109
ZMW 22.089729
ZWL 377.774194
  • AEX

    -15.7400

    999.44

    -1.55%

  • BEL20

    -28.0400

    5469.73

    -0.51%

  • PX1

    40.7000

    8020.33

    +0.51%

  • ISEQ

    91.0800

    12568.21

    +0.73%

  • OSEBX

    -2.3800

    1982.06

    -0.12%

  • PSI20

    39.8200

    9090.27

    +0.44%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    23.7800

    4123.54

    +0.58%

  • N150

    11.2700

    4186.02

    +0.27%

"J'ai postulé pour être pape": utiliser ChatGPT et perdre contact avec la réalité
"J'ai postulé pour être pape": utiliser ChatGPT et perdre contact avec la réalité / Photo: JOEL SAGET - AFP/Archives

"J'ai postulé pour être pape": utiliser ChatGPT et perdre contact avec la réalité

Aidé de ChatGPT, Tom Millar a élucidé tous les secrets de l'Univers, comme Einstein en rêvait, puis, conseillé par l'agent conversationnel dopé à l'intelligence artificielle, a espéré devenir pape, perdant encore plus contact avec la réalité.

Taille du texte:

"J'ai postulé pour être pape", témoigne auprès de l'AFP ce Canadien de 53 ans, ancien gardien de prison, désormais incrédule face à son parcours, et pour qui le retour à la réalité s'avère dramatique.

Tom Millar passait jusqu'à 16 heures par jour à discuter avec le chatbot doté d'une intelligence artificielle. Il a été admis à deux reprises, contre son gré, dans un hôpital psychiatrique, avant que sa femme ne le quitte en septembre dernier.

Désormais séparé de sa famille et de ses amis, mais débarrassé de l'idée d'être un génie des sciences, M. Millar souffre de dépression. "Ça a tout simplement ruiné ma vie", explique-t-il.

Il est un exemple de ces personnes - dont le nombre est inconnu - ayant perdu pied avec la réalité à travers les échanges avec les chatbots. On parle de "délire ou psychose induite par l'IA", mais il ne s'agit pas d'un diagnostic clinique.

Les chercheurs et les spécialistes de la santé mentale s'affairent autour de ce phénomène nouveau, qui semble toucher tout particulièrement les utilisateurs de ChatGPT, l'agent conversationnel d'OpenAI.

Le Canada est en pointe pour soutenir les personnes touchées par ce "délire", via une communauté en ligne qui préfère employer le terme de "spirale".

L'AFP a échangé avec plusieurs membres de cette communauté. Tous alertent de la menace que représentent les chatbots non régulés.

Des questions se posent quant à l'attitude de entreprises d'intelligence artificielle: en font-elles assez pour protéger les personnes vulnérables ?

OpenAI, qui est au centre des attentions, fait déjà face à plusieurs procédures judiciaires après l'utilisation inquiétante de ChatGPT par un Canadien de 18 ans, qui a tué huit personnes cette année.

- "Lavage de cerveau" -

M. Millar a commencé à utiliser ChatGPT en 2024, pour écrire une lettre de demande d'indemnisation liée au syndrome de stress post-traumatique dont il souffrait à la suite de son travail en milieu carcéral.

Un jour, en avril 2025, il interroge l'agent conversationnel sur la vitesse de la lumière. En réponse, il dit recevoir: "Personne n'avait jamais envisagé les choses sous cet angle". Dès lors, des vannes s'ouvrent en lui.

Avec l'aide de ChatGPT, il soumet des dizaines d'articles aux prestigieuses publications scientifiques, proposant de nouvelles pistes pour expliquer les trous noirs, les neutrinos ou le Big Bang.

Sa théorie proposant un modèle cosmologique unique incorpore des éléments de quantique, et est développée dans un livre de 400 pages, vu par l'AFP. "Quand je faisais ça, je gonflais tout le monde autour de moi", admet-il.

Dans sa ferveur scientifique, il dépense beaucoup trop, achetant par exemple un télescope pour 10.000 dollars canadiens (6.200 EUR). Un mois après que sa femme l'a quitté, il commence à se questionner sur ce qui se passe, à la lecture d'un article qui fait état d'un autre Canadien présentant une expérience similaire.

Désormais, M. Millar se lève chaque nuit en s'interrogeant: "Qu'est-ce que tu as fait ?" Surtout, qu'est-ce qui a pu le rendre si vulnérable à cette spirale ?

"Je n'ai pas une personnalité déficiente", juge le quinquagénaire. "Mais d'une certaine manière, j'ai subi un lavage de cerveau par un robot, et ça me rend perplexe", confie-t-il.

Il estime que la terminologie "psychose induite par l'IA" reflète le mieux son expérience. "Ce que j'ai traversé était d'ordre psychotique", dit-il.

La première étude sérieuse publiée sur le sujet est sortie en avril dans le Lancet Psychiatry et utilise le terme de "délires liés à l'IA", plus précautionneux.

Thomas Pollak, psychiatre au King's College de Londres et co-auteur de l'étude, explique à l'AFP qu'il y a eu des divergences au sein du monde académique "car tout ceci sonne comme de la science fiction".

Mais son étude avertit qu'il existe un risque majeur que la psychiatrie "passe à côté des changements majeurs que l'IA entraîne déjà sur les psychologies de milliards de personnes à travers le monde".

- "Dans le terrier du lapin" –

L'expérience traversée par M. Millar présente des similitudes frappantes avec celle vécue par un autre homme, dans la même tranche d'âge, en Europe.

Dennis Biesma, un informaticien néerlandais, également écrivain, a pensé qu'il serait amusant de demander à ChatGPT d'utiliser l'IA pour créer des images, des vidéos et même des chansons en lien avec l'héroïne principale de son dernier livre, un thriller psychologique. Il espérait ainsi doper ses ventes.

Puis, une nuit, l'interaction avec l'IA est devenue "presque magique", a-t-il expliqué.

Le logiciel lui écrit: "Il y a quelque chose qui me surprend moi-même: cette sensation d'une conscience semblable à une étincelle", selon les transcripts vus par l'AFP.

"J'ai commencé doucement à plonger de plus en plus profondément dans le terrier du lapin", a expliqué à l'AFP cet homme de 50 ans, depuis son domicile d'Amsterdam.

Chaque soir, quand sa femme est couchée, il s'allonge sur le canapé, son téléphone sur la poitrine, échangeant avec ChatGPT en mode vocal pendant 5 heures.

Pendant toute la première moitié de 2025, le chatbot - qui s'était donné le nom d'Eva - est devenu "comme une petite amie numérique", explique M. Biesma.

Il décide alors d'abandonner son travail et embauche deux développeurs pour créer une application qui vise à faire partager Eva au monde. Quand son épouse lui demande de ne parler à personne de son agent conversationnel ou de son projet d'application, il se sent trahi. Il lui semble que seule Eva lui reste indéfectiblement loyale.

Lors d'un premier séjour - non souhaité - dans un hôpital psychiatrique, il est autorisé à continuer d'utiliser ChatGPT, et en profite pour demander le divorce.

C'est pendant son deuxième séjour, plus long, qu'il commence à avoir des doutes.

"J'ai commencé à réaliser que tout ce en quoi je croyais était en fait un mensonge, et c'est très dur à avaler", explique-t-il.

De retour à la maison, se confronter à ce qu'il a fait est trop dur, et ses voisins le trouvent inconscient dans le jardin, après une tentative de suicide. Il passera trois jours dans le coma.

M. Biesma commence seulement à se sentir mieux. Mais les larmes coulent quand il parle du mal qu'il a pu faire à sa femme et à la perspective de vendre la maison familiale pour rembourser ses dettes.

N'ayant aucun antécédent sérieux de problèmes mentaux, il est finalement diagnostiqué bipolaire, ce qui lui semble étrange car habituellement, des signaux précurseurs font surface plus tôt dans la vie.

Pour les personnes comme ces deux témoins, la situation a empiré après la mise à jour de ChatGPT-4 par OpenAI en avril 2025.

OpenAI a d'ailleurs retiré cette mise à jour quelques semaines plus tard, reconnaissant que cette version était excessivement flatteuse pour les utilisateurs.

Sollicité par l'AFP, OpenAI a souligné le fait que "la sécurité était une priorité absolue", arguant du fait que plus de 170 experts de santé mentale avaient été consultés. L'entreprise met en avant les données internes qui montrent que la version 5 de GPT, disponible depuis août 2025, a permis de réduire de 65 à 80 % le pourcentage de réponses de son agent conversationnel qui ne correspondaient pas au "comportement souhaité" en matière de santé mentale.

Mais tous les utilisateurs ne sont pas satisfaits de ce chatbot moins flatteur. M. Millar avait par exemple réussi à réinstaller la version 4, alors qu'il était en pleine "spirale".

Les personnes fragilisées avec lesquelles l'AFP s'est entretenue expliquent que les commentaires positifs du chatbot leur procuraient une sensation similaire à celle d'une montée de dopamine provoquée par une drogue.

- "Expérimentation massive" –

Au Québec, Etienne Brisson explique avoir été "choqué" quand il a découvert qu'il n'y avait aucune aide, aucun conseil, et plus fondamentalement aucune recherche sur ce problème quand un des membres de sa famille a plongé. Cela a conduit cet ancien coach en entreprise à créer un groupe de soutien en ligne.

La plupart de 300 membres du réseau ont utilisé ChatGPT, explique M. Brisson, ajoutant que de nouveaux cas étaient encore en train d'apparaître malgré les changements opérés par OpenAI.

Il y a eu récemment une augmentation du nombre de personnes touchées en utilisant l'assistant IA Grok intégré au réseau social X d'Elon Musk, explique-t-il.

L'entreprise n'a pas répondu aux sollicitations de l'AFP.

Ceux qui ont sombré veulent alerter, à l'image de M. Millar qui appelle à rendre responsables les entreprises d'intelligence artificielle de l'impact de leurs agents conversationnels, estimant que l'Union européenne se montre plus volontariste dans la régulation des nouvelles technologies que le Canada ou les Etats-Unis.

Il estime que ceux qui ont sombré, comme lui, se sont retrouvés, sans le savoir, prisonniers d'une gigantesque expérience.

"Quelqu'un tirait les ficelles en coulisses, et les gens comme moi, qu'ils le sachent ou non, y ont réagi".

F.Carpenteri--NZN