Zürcher Nachrichten - "C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images

EUR -
AED 4.317084
AFN 76.997356
ALL 96.772679
AMD 448.484765
ANG 2.104379
AOA 1077.811061
ARS 1705.16984
AUD 1.777599
AWG 2.118598
AZN 1.997293
BAM 1.96202
BBD 2.365789
BDT 143.537113
BGN 1.95721
BHD 0.443114
BIF 3486.136225
BMD 1.175366
BND 1.517941
BOB 8.11642
BRL 6.484376
BSD 1.174574
BTN 106.230259
BWP 15.513522
BYN 3.468448
BYR 23037.17802
BZD 2.362459
CAD 1.619708
CDF 2662.204223
CHF 0.933735
CLF 0.027503
CLP 1078.92775
CNY 8.278398
CNH 8.272264
COP 4548.549756
CRC 585.230441
CUC 1.175366
CUP 31.147205
CVE 110.596296
CZK 24.390018
DJF 208.885855
DKK 7.47121
DOP 73.753874
DZD 152.169912
EGP 55.943667
ERN 17.630493
ETB 182.417981
FJD 2.688055
FKP 0.875536
GBP 0.877558
GEL 3.167589
GGP 0.875536
GHS 13.546118
GIP 0.875536
GMD 86.383254
GNF 10211.000115
GTQ 8.996253
GYD 245.748635
HKD 9.144931
HNL 30.802548
HRK 7.537975
HTG 153.854487
HUF 389.138488
IDR 19623.561891
ILS 3.796309
IMP 0.875536
INR 106.212145
IQD 1539.729755
IRR 49494.671681
ISK 148.002177
JEP 0.875536
JMD 187.95587
JOD 0.833354
JPY 182.772385
KES 151.503116
KGS 102.785973
KHR 4707.342355
KMF 492.478703
KPW 1057.843016
KRW 1733.971015
KWD 0.360579
KYD 0.978862
KZT 604.159647
LAK 25452.555365
LBP 105254.045802
LKR 363.78556
LRD 208.480545
LSL 19.664333
LTL 3.47055
LVL 0.710967
LYD 6.370834
MAD 10.759008
MDL 19.820995
MGA 5306.778389
MKD 61.578378
MMK 2468.526963
MNT 4170.69852
MOP 9.411637
MRU 46.744401
MUR 54.126061
MVR 18.15952
MWK 2041.611105
MXN 21.17769
MYR 4.805483
MZN 75.105107
NAD 19.664059
NGN 1708.183786
NIO 43.147931
NOK 11.986873
NPR 169.964264
NZD 2.033002
OMR 0.451932
PAB 1.174609
PEN 3.954516
PGK 4.992074
PHP 68.880576
PKR 329.456197
PLN 4.215745
PYG 7889.710429
QAR 4.279523
RON 5.091632
RSD 117.382677
RUB 94.614951
RWF 1704.281027
SAR 4.40863
SBD 9.594986
SCR 17.330842
SDG 706.979855
SEK 10.920927
SGD 1.516929
SHP 0.881829
SLE 28.321188
SLL 24646.846373
SOS 671.719965
SRD 45.460843
STD 24327.707813
STN 24.917764
SVC 10.278016
SYP 12996.208108
SZL 19.663502
THB 36.953675
TJS 10.841556
TMT 4.113782
TND 3.41297
TOP 2.83
TRY 50.21529
TTD 7.967921
TWD 36.998763
TZS 2901.921575
UAH 49.855936
UGX 4187.078229
USD 1.175366
UYU 45.762744
UZS 14245.438181
VES 324.672821
VND 30953.269549
VUV 142.604509
WST 3.280482
XAF 658.015092
XAG 0.017592
XAU 0.000271
XCD 3.176486
XCG 2.116966
XDR 0.816263
XOF 655.333471
XPF 119.331742
YER 280.14851
ZAR 19.686779
ZMK 10579.713449
ZMW 26.927336
ZWL 378.467445
  • AEX

    -5.5200

    929.6

    -0.59%

  • BEL20

    35.0800

    5045.95

    +0.7%

  • PX1

    -20.2700

    8086.05

    -0.25%

  • ISEQ

    -9.1000

    12989.11

    -0.07%

  • OSEBX

    13.5800

    1649.54

    +0.83%

  • PSI20

    8.0600

    8070.37

    +0.1%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    86.6400

    4173.57

    +2.12%

  • N150

    -9.6200

    3689.37

    -0.26%

"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images
"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images / Photo: Omar AL-QATTAA - AFP

"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images

"Grok, c'est vrai?" : les internautes recourent de plus en plus aux chatbots conversationnels pour vérifier des informations, au risque d'être trompés par les erreurs des IA, comme l'illustrent les vifs échanges déclenchés sur X par le partage de la photo d'une fillette dénutrie à Gaza.

Taille du texte:

Début août, quand le député français apparenté LFI Aymeric Caron, soutien notoire de la cause palestinienne, publie sur le réseau social X cette image sans légende, alors que la bande de Gaza est menacée d’une "famine généralisée" selon l'ONU, plusieurs utilisateurs demandent rapidement à Grok d'en vérifier l'origine.

Le robot conversationnel intégré à X est formel: cette photo a été prise selon lui en octobre 2018 au Yémen et montrerait Amal Hussain, une fillette de 7 ans. Sa réponse est largement relayée. Et le député accusé de faire de la désinformation.

Mais Grok se trompe : la photo a bien été prise à Gaza, le 2 août, par Omar al-Qattaa, photojournaliste pour l'AFP.

Le cliché montre Mariam Dawwas, 9 ans, dans les bras de sa mère Modallala à Gaza-ville, qui a expliqué à l'AFP que sa fille pesait 25 kilos avant la guerre, contre 9 aujourd'hui. Comme soutien médical, elle reçoit "seulement du lait, et il n'est pas toujours disponible. Ce n'est pas suffisant pour qu'elle se rétablisse", a-t-elle dit.

Interpellé sur l'inexactitude de sa réponse, Grok affirme: "Je ne propage pas de fake news ; je m'appuie sur des sources vérifiées". Il finit par admettre son erreur mais il la reproduit dès le lendemain, en réponses à de nouvelles questions d'utilisateurs de X.

- Des "boîtes noires" -

Cette séquence illustre les limites des outils d'intelligence artificielle, qui fonctionnent comme "des boîtes noires", souligne Louis de Diesbach, chercheur en éthique de la technique et auteur de Bonjour ChatGPT.

"On ne sait pas précisément pourquoi ils donnent telle ou telle réponse, ni comment ils priorisent leurs sources", souligne l'expert, expliquant que ces outils ont des biais liés à leurs données d'entraînement mais aussi aux consignes de leurs concepteurs.

Le robot conversationnel d'xAI, la start-up d'Elon Musk, présente selon l'expert "des biais encore plus prononcés et qui sont très alignés sur l'idéologie promue, entre autres," par le milliardaire sud-africain, proche des idées de la droite radicale américaine.

Interroger un chatbot sur l'origine d'une image revient à le faire sortir de son rôle, pointe M. de Diesbach : "Typiquement, quand vous cherchez l'origine d'une image, il peut dire +cette photo aurait pu être prise au Yémen, aurait pu être prise à Gaza, aurait pu être prise dans à peu près n'importe quel pays où il y a une famine+".

"Un modèle de langage ne cherche pas à créer des choses exactes, ce n'est pas le but", insiste l'expert.

Récemment, une autre photographie de l'AFP, du même Omar al-Qattaa, publiée par le quotidien Libération et montrant déjà un enfant souffrant de malnutrition à Gaza, avait déjà été faussement située au Yémen et datée de 2016 par Grok. Alors qu'elle a bien été prise en juillet 2025 à Gaza.

L'erreur de l'IA avait conduit des internautes à accuser à tort le journal de manipulation.

- Pas seulement Grok -

Les biais des IA sont liés à leurs données d'entraînement, qui conditionnent la base des connaissances du modèle, et à la phase dite d'alignement, qui détermine ce que le modèle va considérer comme une "bonne" ou une "mauvaise" réponse.

Et "ce n'est pas parce qu'on lui a expliqué qu'en fait, c'était faux, que du jour au lendemain, il va (changer sa réponse) parce que ses données d'entraînement n'ont pas changé, son alignement non plus", ajoute M. de Diesbach.

Les erreurs ne sont pas propres à Grok : interrogé par l'AFP sur l'origine de la photo de Mariam Dawwas, l’agent conversationnel de Mistral AI - start-up qui, en tant que partenaire de l’AFP, peut intégrer les dépêches de l'agence aux réponses de son chatbot - a lui aussi indiqué à tort qu'elle avait été prise au Yémen.

Pour Louis de Diesbach, les agents conversationnels ne doivent pas être utilisés pour vérifier des faits, à la manière d'un moteur de recherche, car "ils ne sont pas faits pour dire la vérité" mais pour "générer du contenu, qu’il soit vrai ou faux."

"Il faut le voir comme un ami mythomane : il ne ment pas toujours, mais il peut toujours mentir", conclut l’expert.

T.L.Marti--NZN