Zürcher Nachrichten - Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux

EUR -
AED 4.237
AFN 72.67215
ALL 96.439167
AMD 435.408636
ANG 2.0649
AOA 1057.779611
ARS 1611.010422
AUD 1.624564
AWG 2.079223
AZN 1.945534
BAM 1.958758
BBD 2.321285
BDT 141.413535
BGN 1.971725
BHD 0.435689
BIF 3425.959811
BMD 1.153522
BND 1.472724
BOB 7.964268
BRL 5.999239
BSD 1.15253
BTN 106.434947
BWP 15.663195
BYN 3.45692
BYR 22609.027707
BZD 2.31797
CAD 1.580844
CDF 2612.727331
CHF 0.906552
CLF 0.026444
CLP 1044.421282
CNY 8.024186
CNH 7.939869
COP 4265.100795
CRC 540.234489
CUC 1.153522
CUP 30.568328
CVE 111.459011
CZK 24.430415
DJF 205.236134
DKK 7.472503
DOP 70.306427
DZD 152.806808
EGP 60.267824
ERN 17.302827
ETB 181.535552
FJD 2.54761
FKP 0.867251
GBP 0.864011
GEL 3.137768
GGP 0.867251
GHS 12.556073
GIP 0.867251
GMD 84.785822
GNF 10122.15418
GTQ 8.828331
GYD 241.131426
HKD 9.039568
HNL 30.649418
HRK 7.531693
HTG 151.178936
HUF 389.160771
IDR 19557.962488
ILS 3.570237
IMP 0.867251
INR 106.568171
IQD 1511.113587
IRR 1515900.701843
ISK 143.590528
JEP 0.867251
JMD 181.303769
JOD 0.817873
JPY 183.301551
KES 149.263438
KGS 100.875415
KHR 4635.429751
KMF 494.860672
KPW 1038.220285
KRW 1714.894867
KWD 0.353612
KYD 0.960484
KZT 555.347835
LAK 24771.881325
LBP 103297.879013
LKR 358.905059
LRD 211.38284
LSL 19.332716
LTL 3.40605
LVL 0.697754
LYD 7.394447
MAD 10.837363
MDL 20.106057
MGA 4792.883824
MKD 61.627084
MMK 2422.572577
MNT 4123.260971
MOP 9.302989
MRU 46.273525
MUR 53.868606
MVR 17.833708
MWK 2003.667624
MXN 20.417936
MYR 4.526993
MZN 73.708818
NAD 19.332766
NGN 1563.826412
NIO 42.357371
NOK 11.068751
NPR 170.297794
NZD 1.969866
OMR 0.443525
PAB 1.152575
PEN 3.954846
PGK 4.963026
PHP 68.735485
PKR 322.149837
PLN 4.260412
PYG 7471.28166
QAR 4.202568
RON 5.099835
RSD 117.439798
RUB 95.05593
RWF 1682.988338
SAR 4.33112
SBD 9.287766
SCR 15.104453
SDG 693.266837
SEK 10.686618
SGD 1.47243
SHP 0.86544
SLE 28.389514
SLL 24188.788329
SOS 659.241715
SRD 43.339545
STD 23875.572759
STN 24.916071
SVC 10.084227
SYP 127.897764
SZL 19.333216
THB 37.247344
TJS 11.047116
TMT 4.014256
TND 3.369443
TOP 2.777403
TRY 50.996395
TTD 7.819774
TWD 36.731828
TZS 3016.45951
UAH 50.637624
UGX 4350.531602
USD 1.153522
UYU 46.850745
UZS 13963.381974
VES 514.754787
VND 30337.623912
VUV 137.946383
WST 3.177041
XAF 656.974663
XAG 0.014379
XAU 0.00023
XCD 3.117451
XCG 2.077209
XDR 0.818793
XOF 663.848984
XPF 119.331742
YER 275.111989
ZAR 19.198364
ZMK 10383.082638
ZMW 22.480628
ZWL 371.433556
  • AEX

    5.9500

    1013.75

    +0.59%

  • BEL20

    38.4700

    5167.54

    +0.75%

  • PX1

    35.7100

    7972.01

    +0.45%

  • ISEQ

    -69.0600

    12262.33

    -0.56%

  • OSEBX

    5.7000

    1972.42

    +0.29%

  • PSI20

    54.7800

    9184.8

    +0.6%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    50.3600

    3780.46

    +1.35%

  • N150

    29.7100

    3888.53

    +0.77%

Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux
Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux / Photo: Chris Delmas - AFP

Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux

Lorsque des Philippins indignés ont utilisé un assistant virtuel ("chatbot") dopé à l'IA pour vérifier la photo virale d'un parlementaire impliqué dans un scandale de corruption, l'outil n'a pas détecté qu'elle était fabriquée. Il l'avait pourtant lui-même générée.

Taille du texte:

Les internautes se tournent de plus en plus vers des chatbots pour vérifier des images en temps réel. Mais ces outils échouent souvent, interrogeant sur leurs capacités à détecter les images factices, à un moment où les grandes plateformes réduisent la vérification humaine.

Dans de nombreux cas, ils identifient comme authentiques des images générées par l'IA, ce qui accentue la confusion dans un univers numérique saturé de faux visuels.

Les outils de vérification "sont principalement entraînés sur des schémas linguistiques et manquent de la compréhension visuelle nécessaire pour identifier correctement les images générées ou manipulées", explique Alon Yamin, PDG de Copyleaks, une plateforme de détection de contenus IA.

"Les chatbots donnent souvent des évaluations incohérentes ou trop générales, ce qui les rend peu fiables pour des tâches comme la vérification ou l'authentification."

Aux Philippines, une image fabriquée a ainsi circulé sur les réseaux sociaux impliquant Elizaldy Co, ex-député impliqué dans une vaste affaire de corruption concernant des projets fictifs de contrôle des inondations, qui auraient coûté des centaines de millions de dollars au contribuable.

La photo montrait l'ex-député au Portugal, alors qu'il aurait dû se trouver aux Philippines à la disposition de la justice. Lorsque des internautes ont interrogé l'assistant IA de Google pour savoir si la photo était authentique, l'IA a répondu à tort par l'affirmative.

Elizaldy Co n'est en réalité jamais réapparu en public depuis le début de l'enquête.

Les vérificateurs de l'AFP ont retrouvé le créateur de l'image et établi qu'elle avait été précisément générée par l'IA de Google.

Google n'a pas répondu aux sollicitations de l'AFP sur ce sujet.

- "Distinguable de la réalité" -

L'AFP a trouvé d'autres occurrences d'IA incapables de reconnaître leurs propres créations.

Lors des violentes manifestations du mois dernier au Cachemire pakistanais, des internautes ont partagé une image censée montrer des hommes marchant avec des drapeaux et des torches.

Une analyse de l'AFP a révélé qu'elle avait été créée avec le modèle Gemini de Google. Mais Gemini et Copilot (Microsoft) l'ont identifiée comme authentique.

"Ces modèles (d'IA) sont programmés uniquement pour bien imiter", explique à l'AFP Rossine Fallorina, du centre de recherche Sigla. "En un sens, ils ne peuvent que générer des choses qui imitent correctement. Ils ne peuvent pas déterminer si cette imitation est réellement distinguable de la réalité".

Plus tôt cette année, le Tow Center for Digital Journalism de l'université américaine Columbia a testé sept chatbots IA – dont ChatGPT, Perplexity, Gemini et Grok (une IA appartenant à Elon Musk) – sur 10 photos de photojournalistes.

Tous ont échoué à identifier correctement la provenance des images qui leur étaient soumises, selon l'étude.

- "Choqué" -

L'AFP a retrouvé l'auteur de la fausse photo d'Elizaldy Co, qui a dépassé le million de vues sur les réseaux: un développeur web philippin qui affirme l'avoir créée "pour s'amuser" avec Nano Banana, le générateur d'images IA de Gemini.

"Malheureusement, beaucoup de gens y ont cru", confie-t-il, sous couvert d'anonymat pour éviter les représailles. "J'ai modifié mon post en précisant +image générée par IA+ pour stopper la propagation, car j'étais choqué par le nombre de partages."

Ces cas montrent à quel point les photos générées par IA peuvent être indiscernables des images réelles. Et la tendance inquiète, alors que les internautes délaissent les moteurs de recherche traditionnels au profit des outils IA pour s'informer et vérifier des contenus.

Le géant américain Meta, qui contrôle Facebook et Instagram, a annoncé en début d'année la fin de son programme de fact-checking aux Etats-Unis pour le remplacer par un système de "notes de communauté", écrites par des utilisateurs, sur le modèle du réseau social X d'Elon Musk.

L'AFP collabore en revanche toujours avec Meta dans 26 langues, en Asie, Amérique latine et dans l'Union européenne.

Les chercheurs estiment que les modèles d'IA peuvent aider les fact-checkers professionnels à géolocaliser rapidement des images et repérer des indices visuels. Mais ils avertissent qu'ils ne peuvent pas remplacer le travail humain.

"On ne peut pas compter sur les outils IA pour combattre l'IA à long terme", insiste Rossine Fallorina.

M.J.Baumann--NZN