Zürcher Nachrichten - Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux

EUR -
AED 4.279356
AFN 77.342596
ALL 96.588267
AMD 445.245914
ANG 2.085849
AOA 1068.528103
ARS 1684.920478
AUD 1.758327
AWG 2.098895
AZN 2.000098
BAM 1.955554
BBD 2.352214
BDT 142.892029
BGN 1.955743
BHD 0.439286
BIF 3450.584485
BMD 1.165243
BND 1.512462
BOB 8.069985
BRL 6.188594
BSD 1.167858
BTN 104.909256
BWP 15.515982
BYN 3.380989
BYR 22838.771667
BZD 2.348815
CAD 1.624915
CDF 2598.493062
CHF 0.936046
CLF 0.027259
CLP 1069.37901
CNY 8.240193
CNH 8.235265
COP 4424.417736
CRC 572.625526
CUC 1.165243
CUP 30.878951
CVE 110.251134
CZK 24.189639
DJF 207.974736
DKK 7.468849
DOP 74.210348
DZD 151.576082
EGP 55.433829
ERN 17.478652
ETB 182.104716
FJD 2.635811
FKP 0.874078
GBP 0.872977
GEL 3.147734
GGP 0.874078
GHS 13.303327
GIP 0.874078
GMD 85.062585
GNF 10148.115621
GTQ 8.945913
GYD 244.339271
HKD 9.070704
HNL 30.750001
HRK 7.530381
HTG 152.976012
HUF 382.036136
IDR 19419.364756
ILS 3.765047
IMP 0.874078
INR 104.87832
IQD 1529.914154
IRR 49085.880544
ISK 149.011092
JEP 0.874078
JMD 187.165658
JOD 0.826133
JPY 180.489235
KES 150.723926
KGS 101.900195
KHR 4677.552222
KMF 491.733124
KPW 1048.710785
KRW 1714.28866
KWD 0.357567
KYD 0.973282
KZT 590.298294
LAK 25334.922447
LBP 104583.895701
LKR 360.496209
LRD 206.13496
LSL 19.825192
LTL 3.440661
LVL 0.704844
LYD 6.348229
MAD 10.775645
MDL 19.865587
MGA 5194.324444
MKD 61.632249
MMK 2446.898083
MNT 4137.528116
MOP 9.363463
MRU 46.272982
MUR 53.682574
MVR 17.956659
MWK 2025.136618
MXN 21.224828
MYR 4.788568
MZN 74.461422
NAD 19.825192
NGN 1689.89492
NIO 42.97607
NOK 11.773968
NPR 167.85317
NZD 2.018942
OMR 0.448036
PAB 1.167953
PEN 3.927406
PGK 4.953526
PHP 68.743516
PKR 329.927022
PLN 4.228238
PYG 8099.016174
QAR 4.268663
RON 5.09165
RSD 117.397105
RUB 88.493403
RWF 1699.278998
SAR 4.373004
SBD 9.582756
SCR 15.836503
SDG 700.891918
SEK 10.96772
SGD 1.509221
SHP 0.874234
SLE 26.800929
SLL 24434.570407
SOS 666.313342
SRD 45.029085
STD 24118.186847
STN 24.497865
SVC 10.218759
SYP 12883.973776
SZL 19.819422
THB 37.148464
TJS 10.732896
TMT 4.078352
TND 3.428084
TOP 2.805627
TRY 49.555241
TTD 7.918038
TWD 36.421782
TZS 2843.194009
UAH 49.242196
UGX 4140.47927
USD 1.165243
UYU 45.754442
UZS 13912.250317
VES 289.663092
VND 30718.730513
VUV 142.29241
WST 3.263056
XAF 655.8717
XAG 0.020092
XAU 0.000276
XCD 3.149128
XCG 2.104844
XDR 0.815694
XOF 655.877327
XPF 119.331742
YER 277.795391
ZAR 19.73052
ZMK 10488.581818
ZMW 26.831741
ZWL 375.207916
  • AEX

    2.7500

    950.53

    +0.29%

  • BEL20

    61.1700

    5074.76

    +1.22%

  • PX1

    31.6800

    8154.06

    +0.39%

  • ISEQ

    30.5900

    12777.31

    +0.24%

  • OSEBX

    6.6600

    1631.95

    +0.41%

  • PSI20

    -36.2500

    8202.8

    -0.44%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -40.8400

    4350.18

    -0.93%

  • N150

    20.5600

    3691.64

    +0.56%

Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux
Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux / Photo: Chris Delmas - AFP

Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux

Lorsque des Philippins indignés ont utilisé un assistant virtuel ("chatbot") dopé à l'IA pour vérifier la photo virale d'un parlementaire impliqué dans un scandale de corruption, l'outil n'a pas détecté qu'elle était fabriquée. Il l'avait pourtant lui-même générée.

Taille du texte:

Les internautes se tournent de plus en plus vers des chatbots pour vérifier des images en temps réel. Mais ces outils échouent souvent, interrogeant sur leurs capacités à détecter les images factices, à un moment où les grandes plateformes réduisent la vérification humaine.

Dans de nombreux cas, ils identifient comme authentiques des images générées par l'IA, ce qui accentue la confusion dans un univers numérique saturé de faux visuels.

Les outils de vérification "sont principalement entraînés sur des schémas linguistiques et manquent de la compréhension visuelle nécessaire pour identifier correctement les images générées ou manipulées", explique Alon Yamin, PDG de Copyleaks, une plateforme de détection de contenus IA.

"Les chatbots donnent souvent des évaluations incohérentes ou trop générales, ce qui les rend peu fiables pour des tâches comme la vérification ou l'authentification."

Aux Philippines, une image fabriquée a ainsi circulé sur les réseaux sociaux impliquant Elizaldy Co, ex-député impliqué dans une vaste affaire de corruption concernant des projets fictifs de contrôle des inondations, qui auraient coûté des centaines de millions de dollars au contribuable.

La photo montrait l'ex-député au Portugal, alors qu'il aurait dû se trouver aux Philippines à la disposition de la justice. Lorsque des internautes ont interrogé l'assistant IA de Google pour savoir si la photo était authentique, l'IA a répondu à tort par l'affirmative.

Elizaldy Co n'est en réalité jamais réapparu en public depuis le début de l'enquête.

Les vérificateurs de l'AFP ont retrouvé le créateur de l'image et établi qu'elle avait été précisément générée par l'IA de Google.

Google n'a pas répondu aux sollicitations de l'AFP sur ce sujet.

- "Distinguable de la réalité" -

L'AFP a trouvé d'autres occurrences d'IA incapables de reconnaître leurs propres créations.

Lors des violentes manifestations du mois dernier au Cachemire pakistanais, des internautes ont partagé une image censée montrer des hommes marchant avec des drapeaux et des torches.

Une analyse de l'AFP a révélé qu'elle avait été créée avec le modèle Gemini de Google. Mais Gemini et Copilot (Microsoft) l'ont identifiée comme authentique.

"Ces modèles (d'IA) sont programmés uniquement pour bien imiter", explique à l'AFP Rossine Fallorina, du centre de recherche Sigla. "En un sens, ils ne peuvent que générer des choses qui imitent correctement. Ils ne peuvent pas déterminer si cette imitation est réellement distinguable de la réalité".

Plus tôt cette année, le Tow Center for Digital Journalism de l'université américaine Columbia a testé sept chatbots IA – dont ChatGPT, Perplexity, Gemini et Grok (une IA appartenant à Elon Musk) – sur 10 photos de photojournalistes.

Tous ont échoué à identifier correctement la provenance des images qui leur étaient soumises, selon l'étude.

- "Choqué" -

L'AFP a retrouvé l'auteur de la fausse photo d'Elizaldy Co, qui a dépassé le million de vues sur les réseaux: un développeur web philippin qui affirme l'avoir créée "pour s'amuser" avec Nano Banana, le générateur d'images IA de Gemini.

"Malheureusement, beaucoup de gens y ont cru", confie-t-il, sous couvert d'anonymat pour éviter les représailles. "J'ai modifié mon post en précisant +image générée par IA+ pour stopper la propagation, car j'étais choqué par le nombre de partages."

Ces cas montrent à quel point les photos générées par IA peuvent être indiscernables des images réelles. Et la tendance inquiète, alors que les internautes délaissent les moteurs de recherche traditionnels au profit des outils IA pour s'informer et vérifier des contenus.

Le géant américain Meta, qui contrôle Facebook et Instagram, a annoncé en début d'année la fin de son programme de fact-checking aux Etats-Unis pour le remplacer par un système de "notes de communauté", écrites par des utilisateurs, sur le modèle du réseau social X d'Elon Musk.

L'AFP collabore en revanche toujours avec Meta dans 26 langues, en Asie, Amérique latine et dans l'Union européenne.

Les chercheurs estiment que les modèles d'IA peuvent aider les fact-checkers professionnels à géolocaliser rapidement des images et repérer des indices visuels. Mais ils avertissent qu'ils ne peuvent pas remplacer le travail humain.

"On ne peut pas compter sur les outils IA pour combattre l'IA à long terme", insiste Rossine Fallorina.

M.J.Baumann--NZN