Zürcher Nachrichten - "C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images

EUR -
AED 4.241003
AFN 73.32143
ALL 96.264457
AMD 435.49084
ANG 2.066822
AOA 1058.764604
ARS 1597.949484
AUD 1.676973
AWG 2.078272
AZN 1.967396
BAM 1.962489
BBD 2.325728
BDT 141.683564
BGN 1.973561
BHD 0.435685
BIF 3427.417086
BMD 1.154596
BND 1.486969
BOB 8.008298
BRL 6.067751
BSD 1.154731
BTN 109.448969
BWP 15.919471
BYN 3.437216
BYR 22630.074075
BZD 2.322286
CAD 1.604831
CDF 2635.36902
CHF 0.921971
CLF 0.027055
CLP 1068.301597
CNY 7.980392
CNH 7.989998
COP 4249.2467
CRC 536.225485
CUC 1.154596
CUP 30.596784
CVE 110.98555
CZK 24.603629
DJF 205.195187
DKK 7.496448
DOP 68.95827
DZD 153.879614
EGP 60.780401
ERN 17.318934
ETB 180.838585
FJD 2.609838
FKP 0.868614
GBP 0.870276
GEL 3.094767
GGP 0.868614
GHS 12.666364
GIP 0.868614
GMD 84.867224
GNF 10137.349919
GTQ 8.837161
GYD 241.720221
HKD 9.035924
HNL 30.608778
HRK 7.557064
HTG 151.366612
HUF 390.276858
IDR 19617.503194
ILS 3.622683
IMP 0.868614
INR 109.529794
IQD 1512.520257
IRR 1516272.693223
ISK 144.047794
JEP 0.868614
JMD 181.759555
JOD 0.818654
JPY 185.080568
KES 149.986359
KGS 100.96983
KHR 4632.238016
KMF 494.167328
KPW 1039.005581
KRW 1741.130593
KWD 0.355512
KYD 0.962293
KZT 558.235579
LAK 25285.644395
LBP 103394.037822
LKR 363.741444
LRD 212.012665
LSL 19.813301
LTL 3.409221
LVL 0.698404
LYD 7.360592
MAD 10.789123
MDL 20.282399
MGA 4820.437097
MKD 61.637435
MMK 2427.526343
MNT 4123.646826
MOP 9.31702
MRU 46.322813
MUR 54.000874
MVR 17.838939
MWK 2005.532983
MXN 20.922547
MYR 4.530678
MZN 73.836825
NAD 19.813296
NGN 1597.337286
NIO 42.397186
NOK 11.20288
NPR 175.114145
NZD 2.009741
OMR 0.444613
PAB 1.154721
PEN 3.994328
PGK 4.975197
PHP 69.911197
PKR 322.367369
PLN 4.298271
PYG 7549.734427
QAR 4.218027
RON 5.111746
RSD 117.558661
RUB 94.006614
RWF 1686.864195
SAR 4.332448
SBD 9.285301
SCR 16.659944
SDG 693.912357
SEK 10.938258
SGD 1.492666
SHP 0.866246
SLE 28.345751
SLL 24211.30527
SOS 659.855623
SRD 43.413994
STD 23897.798134
STN 24.650616
SVC 10.103439
SYP 129.111885
SZL 19.813287
THB 37.940438
TJS 11.033396
TMT 4.041085
TND 3.37839
TOP 2.779989
TRY 51.302613
TTD 7.845709
TWD 36.998328
TZS 2974.800639
UAH 50.614226
UGX 4301.662877
USD 1.154596
UYU 46.739318
UZS 14091.83988
VES 540.268027
VND 30409.162038
VUV 138.27014
WST 3.204592
XAF 658.200578
XAG 0.0165
XAU 0.000256
XCD 3.120353
XCG 2.081103
XDR 0.816058
XOF 655.810693
XPF 119.331742
YER 275.490657
ZAR 19.766671
ZMK 10392.750198
ZMW 21.737094
ZWL 371.779317
  • AEX

    -10.5800

    960.22

    -1.09%

  • BEL20

    -21.0300

    4985.22

    -0.42%

  • PX1

    -67.6000

    7701.95

    -0.87%

  • ISEQ

    -51.7200

    11975.33

    -0.43%

  • OSEBX

    -6.5600

    1981.56

    -0.33%

  • PSI20

    -115.1700

    8882.11

    -1.28%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -13.4000

    3607.49

    -0.37%

  • N150

    -43.9600

    3778.5

    -1.15%

"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images
"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images / Photo: Omar AL-QATTAA - AFP

"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images

"Grok, c'est vrai?" : les internautes recourent de plus en plus aux chatbots conversationnels pour vérifier des informations, au risque d'être trompés par les erreurs des IA, comme l'illustrent les vifs échanges déclenchés sur X par le partage de la photo d'une fillette dénutrie à Gaza.

Taille du texte:

Début août, quand le député français apparenté LFI Aymeric Caron, soutien notoire de la cause palestinienne, publie sur le réseau social X cette image sans légende, alors que la bande de Gaza est menacée d’une "famine généralisée" selon l'ONU, plusieurs utilisateurs demandent rapidement à Grok d'en vérifier l'origine.

Le robot conversationnel intégré à X est formel: cette photo a été prise selon lui en octobre 2018 au Yémen et montrerait Amal Hussain, une fillette de 7 ans. Sa réponse est largement relayée. Et le député accusé de faire de la désinformation.

Mais Grok se trompe : la photo a bien été prise à Gaza, le 2 août, par Omar al-Qattaa, photojournaliste pour l'AFP.

Le cliché montre Mariam Dawwas, 9 ans, dans les bras de sa mère Modallala à Gaza-ville, qui a expliqué à l'AFP que sa fille pesait 25 kilos avant la guerre, contre 9 aujourd'hui. Comme soutien médical, elle reçoit "seulement du lait, et il n'est pas toujours disponible. Ce n'est pas suffisant pour qu'elle se rétablisse", a-t-elle dit.

Interpellé sur l'inexactitude de sa réponse, Grok affirme: "Je ne propage pas de fake news ; je m'appuie sur des sources vérifiées". Il finit par admettre son erreur mais il la reproduit dès le lendemain, en réponses à de nouvelles questions d'utilisateurs de X.

- Des "boîtes noires" -

Cette séquence illustre les limites des outils d'intelligence artificielle, qui fonctionnent comme "des boîtes noires", souligne Louis de Diesbach, chercheur en éthique de la technique et auteur de Bonjour ChatGPT.

"On ne sait pas précisément pourquoi ils donnent telle ou telle réponse, ni comment ils priorisent leurs sources", souligne l'expert, expliquant que ces outils ont des biais liés à leurs données d'entraînement mais aussi aux consignes de leurs concepteurs.

Le robot conversationnel d'xAI, la start-up d'Elon Musk, présente selon l'expert "des biais encore plus prononcés et qui sont très alignés sur l'idéologie promue, entre autres," par le milliardaire sud-africain, proche des idées de la droite radicale américaine.

Interroger un chatbot sur l'origine d'une image revient à le faire sortir de son rôle, pointe M. de Diesbach : "Typiquement, quand vous cherchez l'origine d'une image, il peut dire +cette photo aurait pu être prise au Yémen, aurait pu être prise à Gaza, aurait pu être prise dans à peu près n'importe quel pays où il y a une famine+".

"Un modèle de langage ne cherche pas à créer des choses exactes, ce n'est pas le but", insiste l'expert.

Récemment, une autre photographie de l'AFP, du même Omar al-Qattaa, publiée par le quotidien Libération et montrant déjà un enfant souffrant de malnutrition à Gaza, avait déjà été faussement située au Yémen et datée de 2016 par Grok. Alors qu'elle a bien été prise en juillet 2025 à Gaza.

L'erreur de l'IA avait conduit des internautes à accuser à tort le journal de manipulation.

- Pas seulement Grok -

Les biais des IA sont liés à leurs données d'entraînement, qui conditionnent la base des connaissances du modèle, et à la phase dite d'alignement, qui détermine ce que le modèle va considérer comme une "bonne" ou une "mauvaise" réponse.

Et "ce n'est pas parce qu'on lui a expliqué qu'en fait, c'était faux, que du jour au lendemain, il va (changer sa réponse) parce que ses données d'entraînement n'ont pas changé, son alignement non plus", ajoute M. de Diesbach.

Les erreurs ne sont pas propres à Grok : interrogé par l'AFP sur l'origine de la photo de Mariam Dawwas, l’agent conversationnel de Mistral AI - start-up qui, en tant que partenaire de l’AFP, peut intégrer les dépêches de l'agence aux réponses de son chatbot - a lui aussi indiqué à tort qu'elle avait été prise au Yémen.

Pour Louis de Diesbach, les agents conversationnels ne doivent pas être utilisés pour vérifier des faits, à la manière d'un moteur de recherche, car "ils ne sont pas faits pour dire la vérité" mais pour "générer du contenu, qu’il soit vrai ou faux."

"Il faut le voir comme un ami mythomane : il ne ment pas toujours, mais il peut toujours mentir", conclut l’expert.

T.L.Marti--NZN