Zürcher Nachrichten - Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

EUR -
AED 4.301666
AFN 74.964245
ALL 96.098612
AMD 434.445807
ANG 2.096522
AOA 1075.268556
ARS 1634.551952
AUD 1.630204
AWG 2.108371
AZN 1.990446
BAM 1.957809
BBD 2.359448
BDT 143.766913
BGN 1.953876
BHD 0.442754
BIF 3500.747465
BMD 1.171317
BND 1.494434
BOB 8.125338
BRL 5.824022
BSD 1.171467
BTN 111.357269
BWP 15.902318
BYN 3.3136
BYR 22957.812186
BZD 2.356518
CAD 1.594092
CDF 2717.455481
CHF 0.916309
CLF 0.026959
CLP 1060.920313
CNY 7.998045
CNH 7.997576
COP 4351.079355
CRC 532.6443
CUC 1.171317
CUP 31.039899
CVE 110.378265
CZK 24.38108
DJF 208.654111
DKK 7.472136
DOP 69.67752
DZD 155.167832
EGP 62.698301
ERN 17.569754
ETB 182.962347
FJD 2.570982
FKP 0.862349
GBP 0.863993
GEL 3.139342
GGP 0.862349
GHS 13.11746
GIP 0.862349
GMD 85.506397
GNF 10281.506491
GTQ 8.953391
GYD 245.101511
HKD 9.175306
HNL 31.141708
HRK 7.537661
HTG 153.316566
HUF 362.780162
IDR 20375.292578
ILS 3.448351
IMP 0.862349
INR 111.423809
IQD 1534.666902
IRR 1539110.469778
ISK 143.39264
JEP 0.862349
JMD 184.559386
JOD 0.830504
JPY 183.936547
KES 151.232472
KGS 102.397114
KHR 4699.822729
KMF 491.953408
KPW 1054.185251
KRW 1723.463729
KWD 0.360707
KYD 0.976402
KZT 543.46768
LAK 25743.416637
LBP 104927.071037
LKR 374.360955
LRD 215.010633
LSL 19.593575
LTL 3.458594
LVL 0.708518
LYD 7.418581
MAD 10.828211
MDL 20.170698
MGA 4881.008653
MKD 61.632209
MMK 2459.472469
MNT 4189.420664
MOP 9.453401
MRU 46.821846
MUR 54.770607
MVR 18.1027
MWK 2031.784918
MXN 20.446745
MYR 4.630193
MZN 74.84353
NAD 19.59751
NGN 1609.026742
NIO 43.105585
NOK 10.838662
NPR 178.169547
NZD 1.989417
OMR 0.450374
PAB 1.171702
PEN 4.108992
PGK 5.095228
PHP 72.067028
PKR 326.462102
PLN 4.252156
PYG 7283.473945
QAR 4.270864
RON 5.194835
RSD 117.416326
RUB 88.404773
RWF 1713.157959
SAR 4.39501
SBD 9.41986
SCR 16.34319
SDG 703.374036
SEK 10.835911
SGD 1.493898
SHP 0.874506
SLE 28.812685
SLL 24561.926256
SOS 669.578514
SRD 43.872863
STD 24243.895949
STN 24.520242
SVC 10.252477
SYP 129.459787
SZL 19.593105
THB 38.18786
TJS 10.967254
TMT 4.105466
TND 3.409198
TOP 2.82025
TRY 52.946804
TTD 7.958166
TWD 37.051114
TZS 3039.567486
UAH 51.626376
UGX 4396.629516
USD 1.171317
UYU 47.188422
UZS 14057.425043
VES 572.706936
VND 30851.902759
VUV 139.127601
WST 3.180346
XAF 656.630802
XAG 0.015866
XAU 0.000257
XCD 3.165542
XCG 2.111767
XDR 0.814803
XOF 656.630802
XPF 119.331742
YER 279.472035
ZAR 19.587344
ZMK 10543.254978
ZMW 21.940514
ZWL 377.163579
  • AEX

    -9.1300

    1004.98

    -0.9%

  • BEL20

    -0.5400

    5352.18

    -0.01%

  • PX1

    -138.7600

    7976.12

    -1.71%

  • ISEQ

    167.7500

    12593.36

    +1.35%

  • OSEBX

    11.5100

    2030.03

    +0.57%

  • PSI20

    -176.6100

    9168.05

    -1.89%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    74.1500

    3976.54

    +1.9%

  • N150

    0.0000

    4154.52

    0%

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus
Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus / Photo: WIN MCNAMEE - GETTY IMAGES NORTH AMERICA/AFP

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

Le spécialiste de l'intelligence artificielle (IA) Gary Marcus a passé ces derniers mois à alerter ses pairs, les élus et le public au sujet des risques liés au développement et à l'adoption ultra-rapide des nouveaux outils d'IA. Mais le danger d'extinction de l'humanité est "exagéré", a-t-il déclaré à l'AFP lors d'un entretien à San Francisco.

Taille du texte:

"Personnellement, et pour l'instant, je ne suis pas très inquiet à ce sujet, parce que les scénarios ne sont pas très concrets", explique ce professeur émérite de l'université de New York, venu en Californie pour une conférence.

"Ce qui m'inquiète, c'est que nous construisons des systèmes d'IA que nous ne contrôlons pas bien", continue-t-il.

Gary Marcus a conçu son premier programme d'IA au lycée - un logiciel pour traduire le latin en anglais - et après des années d'études de la psychologie infantile, il a fondé Geometric Intelligence, une entreprise de "machine learning" (apprentissage automatisé des machines) ensuite rachetée par Uber.

En mars, il a co-signé la lettre de centaines d'experts demandant une pause de six mois dans le développement de systèmes d'IA ultra-puissants comme ceux de la start-up OpenAI, le temps de s'assurer que les programmes déjà existants soient "fiables, sûrs, transparents, loyaux (...) et alignés" avec les valeurs humaines.

Mais il n'a pas signé la déclaration succincte de chefs d'entreprise et spécialistes qui a fait du bruit cette semaine.

Sam Altman, le patron d'OpenAI, Geoffrey Hinton, un ancien ingénieur proéminent de Google, Demis Hassabis, le dirigeant de DeepMind (Google) et Kevin Scott, directeur technologique de Microsoft, notamment, y appellent à lutter contre "les risques d'extinction" de l'humanité "liés à l'IA".

- "Guerre accidentelle" -

Le succès sans précédent de ChatGPT, le robot conversationnel d'OpenAI capable de produire toutes sortes de textes sur simple requête en langage courant, a suscité une course à cette intelligence artificielle dite "générative" entre les géants des technologies, mais aussi de nombreuses mises en garde et appels à réguler ce domaine.

Y compris de la part de ceux qui construisent ces systèmes informatiques en vue de parvenir à une IA "générale", aux capacités cognitives similaires à celles des humains.

"Si vous pensez vraiment que cela représente un risque existentiel, pourquoi vous travaillez là-dessus ? C'est une question légitime", note Gary Marcus.

"L'extinction de l'espèce humaine... C'est assez compliqué, en réalité", pondère-t-il. "On peut imaginer toutes sortes de fléaux, mais des gens survivraient."

Il existe, en revanche, des scénarios réalistes où l'utilisation de l'IA "peut causer des dégâts massifs", souligne-t-il.

"Par exemple, des gens pourraient réussir à manipuler les marchés. Et peut-être qu'on accuserait les Russes d'être responsables, et qu'on les attaquerait alors qu'ils n'y seraient pour rien et on pourrait se retrouver dans une guerre accidentelle, potentiellement nucléaire", détaille-t-il.

- "Autoritarisme" -

A plus court terme, Gary Marcus se fait davantage du souci pour la démocratie.

Car les logiciels d'IA générative produisent de fausses photographies, et bientôt des vidéos, de plus en plus convaincantes, à peu de frais. Les élections risquent donc selon lui "d'être gagnées par les personnes les plus douées à répandre de la désinformation. Une fois élues elles pourront changer les lois (...) et imposer l'autoritarisme".

Surtout, "la démocratie repose sur l'accès aux informations nécessaires pour prendre les bonnes décisions. Si plus personne ne sait ce qui est vrai ou non, c'est fini".

L'auteur du livre "Rebooting AI" ("Redémarrer l'IA") ne pense pas néanmoins qu'il faille tout jeter dans cette technologie.

"Il y a une chance qu’on utilise un jour une IA que nous n’avons pas encore inventée, qui nous aidera à faire des progrès dans la science, dans la médecine, dans les soins des personnes âgées (...) Mais pour l'instant, nous ne sommes pas prêts. Nous avons besoin de régulation, et de rendre les programmes plus fiables".

Lors d'une audition devant une commission parlementaire américaine en mai, il a défendu la création d'une agence nationale ou internationale chargée de la gouvernance de l'intelligence artificielle.

Un projet que soutient aussi Sam Altman, qui revient d'une tournée européenne où il a exhorté les dirigeants politiques à trouver un "juste équilibre" entre protection et innovation.

Mais attention à ne pas laisser le pouvoir aux entreprises, avertit Gary Marcus: "Ces derniers mois nous ont rappelé à quel point ce sont elles qui prennent les décisions importantes, sans forcément tenir compte (...) des effets collatéraux".

X.Blaser--NZN