Zürcher Nachrichten - Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

EUR -
AED 4.250629
AFN 72.917365
ALL 96.067846
AMD 433.421907
ANG 2.07188
AOA 1061.354799
ARS 1614.593841
AUD 1.633691
AWG 2.086251
AZN 1.965005
BAM 1.958458
BBD 2.315422
BDT 141.051423
BGN 1.97839
BHD 0.437229
BIF 3413.898526
BMD 1.157421
BND 1.474916
BOB 7.944399
BRL 6.067184
BSD 1.14965
BTN 107.10522
BWP 15.68751
BYN 3.554801
BYR 22685.446834
BZD 2.312118
CAD 1.586048
CDF 2633.131686
CHF 0.909935
CLF 0.026794
CLP 1057.928633
CNY 7.986724
CNH 7.975561
COP 4275.269217
CRC 537.87178
CUC 1.157421
CUP 30.67165
CVE 110.423444
CZK 24.496582
DJF 204.723753
DKK 7.470885
DOP 69.509738
DZD 152.736687
EGP 60.462682
ERN 17.361311
ETB 179.495654
FJD 2.556773
FKP 0.866976
GBP 0.863702
GEL 3.142423
GGP 0.866976
GHS 12.549006
GIP 0.866976
GMD 85.648576
GNF 10075.457045
GTQ 8.794619
GYD 240.51511
HKD 9.069723
HNL 30.429663
HRK 7.536201
HTG 150.796374
HUF 392.361588
IDR 19595.133414
ILS 3.595522
IMP 0.866976
INR 108.245809
IQD 1505.843608
IRR 1522152.972957
ISK 143.809248
JEP 0.866976
JMD 180.619166
JOD 0.820617
JPY 183.536257
KES 149.09851
KGS 101.214014
KHR 4608.612794
KMF 495.376255
KPW 1041.621788
KRW 1732.190165
KWD 0.354587
KYD 0.958
KZT 552.863291
LAK 24664.390376
LBP 102953.725972
LKR 358.34418
LRD 210.380962
LSL 19.370795
LTL 3.417562
LVL 0.700112
LYD 7.362564
MAD 10.8022
MDL 20.146908
MGA 4783.864259
MKD 61.624924
MMK 2430.320913
MNT 4131.615726
MOP 9.274987
MRU 45.883838
MUR 53.77357
MVR 17.8825
MWK 1993.560515
MXN 20.588067
MYR 4.559124
MZN 73.957478
NAD 19.370795
NGN 1566.973619
NIO 42.310711
NOK 11.03919
NPR 171.368893
NZD 1.969658
OMR 0.445019
PAB 1.14956
PEN 3.959574
PGK 4.96212
PHP 69.268188
PKR 321.061384
PLN 4.276919
PYG 7470.719566
QAR 4.192516
RON 5.095774
RSD 117.505102
RUB 97.460729
RWF 1678.308166
SAR 4.346114
SBD 9.315597
SCR 15.880763
SDG 695.609849
SEK 10.780506
SGD 1.479809
SHP 0.868365
SLE 28.530385
SLL 24270.54709
SOS 655.841051
SRD 43.405559
STD 23956.272844
STN 24.535205
SVC 10.058651
SYP 128.202081
SZL 19.375802
THB 37.814108
TJS 11.006838
TMT 4.050973
TND 3.395472
TOP 2.786791
TRY 51.267455
TTD 7.792181
TWD 36.983072
TZS 2996.752116
UAH 50.555942
UGX 4345.234879
USD 1.157421
UYU 46.566818
UZS 14013.017322
VES 526.262586
VND 30454.054954
VUV 137.775127
WST 3.176154
XAF 656.89957
XAG 0.016013
XAU 0.000247
XCD 3.127988
XCG 2.071712
XDR 0.816972
XOF 656.89957
XPF 119.331742
YER 276.103021
ZAR 19.525283
ZMK 10418.175586
ZMW 22.504291
ZWL 372.689011
  • AEX

    3.7200

    981.38

    +0.38%

  • BEL20

    17.5200

    5022.15

    +0.35%

  • PX1

    17.1800

    7824.74

    +0.22%

  • ISEQ

    43.5000

    12128.04

    +0.36%

  • OSEBX

    -13.1900

    1985.33

    -0.66%

  • PSI20

    8.0500

    8955.25

    +0.09%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -36.6200

    3662.63

    -0.99%

  • N150

    5.7200

    3819.69

    +0.15%

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus
Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus / Photo: WIN MCNAMEE - GETTY IMAGES NORTH AMERICA/AFP

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

Le spécialiste de l'intelligence artificielle (IA) Gary Marcus a passé ces derniers mois à alerter ses pairs, les élus et le public au sujet des risques liés au développement et à l'adoption ultra-rapide des nouveaux outils d'IA. Mais le danger d'extinction de l'humanité est "exagéré", a-t-il déclaré à l'AFP lors d'un entretien à San Francisco.

Taille du texte:

"Personnellement, et pour l'instant, je ne suis pas très inquiet à ce sujet, parce que les scénarios ne sont pas très concrets", explique ce professeur émérite de l'université de New York, venu en Californie pour une conférence.

"Ce qui m'inquiète, c'est que nous construisons des systèmes d'IA que nous ne contrôlons pas bien", continue-t-il.

Gary Marcus a conçu son premier programme d'IA au lycée - un logiciel pour traduire le latin en anglais - et après des années d'études de la psychologie infantile, il a fondé Geometric Intelligence, une entreprise de "machine learning" (apprentissage automatisé des machines) ensuite rachetée par Uber.

En mars, il a co-signé la lettre de centaines d'experts demandant une pause de six mois dans le développement de systèmes d'IA ultra-puissants comme ceux de la start-up OpenAI, le temps de s'assurer que les programmes déjà existants soient "fiables, sûrs, transparents, loyaux (...) et alignés" avec les valeurs humaines.

Mais il n'a pas signé la déclaration succincte de chefs d'entreprise et spécialistes qui a fait du bruit cette semaine.

Sam Altman, le patron d'OpenAI, Geoffrey Hinton, un ancien ingénieur proéminent de Google, Demis Hassabis, le dirigeant de DeepMind (Google) et Kevin Scott, directeur technologique de Microsoft, notamment, y appellent à lutter contre "les risques d'extinction" de l'humanité "liés à l'IA".

- "Guerre accidentelle" -

Le succès sans précédent de ChatGPT, le robot conversationnel d'OpenAI capable de produire toutes sortes de textes sur simple requête en langage courant, a suscité une course à cette intelligence artificielle dite "générative" entre les géants des technologies, mais aussi de nombreuses mises en garde et appels à réguler ce domaine.

Y compris de la part de ceux qui construisent ces systèmes informatiques en vue de parvenir à une IA "générale", aux capacités cognitives similaires à celles des humains.

"Si vous pensez vraiment que cela représente un risque existentiel, pourquoi vous travaillez là-dessus ? C'est une question légitime", note Gary Marcus.

"L'extinction de l'espèce humaine... C'est assez compliqué, en réalité", pondère-t-il. "On peut imaginer toutes sortes de fléaux, mais des gens survivraient."

Il existe, en revanche, des scénarios réalistes où l'utilisation de l'IA "peut causer des dégâts massifs", souligne-t-il.

"Par exemple, des gens pourraient réussir à manipuler les marchés. Et peut-être qu'on accuserait les Russes d'être responsables, et qu'on les attaquerait alors qu'ils n'y seraient pour rien et on pourrait se retrouver dans une guerre accidentelle, potentiellement nucléaire", détaille-t-il.

- "Autoritarisme" -

A plus court terme, Gary Marcus se fait davantage du souci pour la démocratie.

Car les logiciels d'IA générative produisent de fausses photographies, et bientôt des vidéos, de plus en plus convaincantes, à peu de frais. Les élections risquent donc selon lui "d'être gagnées par les personnes les plus douées à répandre de la désinformation. Une fois élues elles pourront changer les lois (...) et imposer l'autoritarisme".

Surtout, "la démocratie repose sur l'accès aux informations nécessaires pour prendre les bonnes décisions. Si plus personne ne sait ce qui est vrai ou non, c'est fini".

L'auteur du livre "Rebooting AI" ("Redémarrer l'IA") ne pense pas néanmoins qu'il faille tout jeter dans cette technologie.

"Il y a une chance qu’on utilise un jour une IA que nous n’avons pas encore inventée, qui nous aidera à faire des progrès dans la science, dans la médecine, dans les soins des personnes âgées (...) Mais pour l'instant, nous ne sommes pas prêts. Nous avons besoin de régulation, et de rendre les programmes plus fiables".

Lors d'une audition devant une commission parlementaire américaine en mai, il a défendu la création d'une agence nationale ou internationale chargée de la gouvernance de l'intelligence artificielle.

Un projet que soutient aussi Sam Altman, qui revient d'une tournée européenne où il a exhorté les dirigeants politiques à trouver un "juste équilibre" entre protection et innovation.

Mais attention à ne pas laisser le pouvoir aux entreprises, avertit Gary Marcus: "Ces derniers mois nous ont rappelé à quel point ce sont elles qui prennent les décisions importantes, sans forcément tenir compte (...) des effets collatéraux".

X.Blaser--NZN