Zürcher Nachrichten - La quête controversée d'une intelligence artificielle "consciente"

EUR -
AED 4.237807
AFN 72.697767
ALL 96.064347
AMD 435.561434
ANG 2.065628
AOA 1058.152067
ARS 1611.221976
AUD 1.624749
AWG 2.077071
AZN 1.949577
BAM 1.955569
BBD 2.317456
BDT 141.183313
BGN 1.972421
BHD 0.435579
BIF 3416.32219
BMD 1.153929
BND 1.470294
BOB 7.967076
BRL 5.991892
BSD 1.150629
BTN 106.255218
BWP 15.636678
BYN 3.451187
BYR 22617.000762
BZD 2.314056
CAD 1.580052
CDF 2613.648428
CHF 0.90572
CLF 0.026518
CLP 1047.086651
CNY 7.946933
CNH 7.943563
COP 4271.347526
CRC 539.319896
CUC 1.153929
CUP 30.579108
CVE 112.103849
CZK 24.436724
DJF 204.889568
DKK 7.47249
DOP 70.229569
DZD 152.429318
EGP 60.297397
ERN 17.308929
ETB 181.167229
FJD 2.548509
FKP 0.867557
GBP 0.864004
GEL 3.127009
GGP 0.867557
GHS 12.5605
GIP 0.867557
GMD 84.812672
GNF 10083.589698
GTQ 8.831444
GYD 241.21646
HKD 9.042876
HNL 30.659321
HRK 7.534351
HTG 150.928891
HUF 388.529805
IDR 19572.937088
ILS 3.576544
IMP 0.867557
INR 107.416676
IQD 1511.64648
IRR 1516262.193461
ISK 143.617514
JEP 0.867557
JMD 181.003116
JOD 0.818088
JPY 183.501164
KES 149.491232
KGS 100.91092
KHR 4617.334208
KMF 492.7277
KPW 1038.586413
KRW 1714.511206
KWD 0.353899
KYD 0.958853
KZT 554.405254
LAK 24691.332668
LBP 103211.950636
LKR 358.306782
LRD 210.558726
LSL 19.259252
LTL 3.407251
LVL 0.698
LYD 7.379338
MAD 10.805099
MDL 20.072019
MGA 4806.112939
MKD 61.644542
MMK 2423.426895
MNT 4124.715035
MOP 9.287321
MRU 46.27835
MUR 53.807791
MVR 17.828323
MWK 2004.374083
MXN 20.382539
MYR 4.529219
MZN 73.747646
NAD 19.259218
NGN 1561.127147
NIO 42.372517
NOK 11.055759
NPR 170.008749
NZD 1.970708
OMR 0.443645
PAB 1.152982
PEN 3.94355
PGK 4.962758
PHP 68.838751
PKR 322.234628
PLN 4.262439
PYG 7458.892152
QAR 4.204341
RON 5.092865
RSD 117.454953
RUB 95.049812
RWF 1683.581842
SAR 4.332489
SBD 9.283566
SCR 17.333951
SDG 693.510898
SEK 10.709503
SGD 1.473107
SHP 0.865745
SLE 28.364002
SLL 24197.318486
SOS 656.402506
SRD 43.416555
STD 23883.992461
STN 24.493178
SVC 10.067461
SYP 127.942867
SZL 19.259619
THB 37.3094
TJS 11.028605
TMT 4.050289
TND 3.383896
TOP 2.778383
TRY 50.995218
TTD 7.806807
TWD 36.797284
TZS 3010.288514
UAH 50.554091
UGX 4352.065813
USD 1.153929
UYU 46.867267
UZS 14005.806816
VES 516.738648
VND 30348.322451
VUV 137.995029
WST 3.178161
XAF 655.859587
XAG 0.014553
XAU 0.00023
XCD 3.11855
XCG 2.073683
XDR 0.815679
XOF 658.319048
XPF 119.331742
YER 275.269543
ZAR 19.26645
ZMK 10386.725812
ZMW 22.442667
ZWL 371.564542
  • AEX

    5.0400

    1012.81

    +0.5%

  • BEL20

    37.9500

    5167

    +0.74%

  • PX1

    38.8800

    7974.49

    +0.49%

  • ISEQ

    -80.1600

    12252.18

    -0.65%

  • OSEBX

    5.7000

    1972.42

    +0.29%

  • PSI20

    45.6500

    9175.24

    +0.5%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    7.5600

    3787.95

    +0.2%

  • N150

    30.4800

    3889.07

    +0.79%

La quête controversée d'une intelligence artificielle "consciente"
La quête controversée d'une intelligence artificielle "consciente" / Photo: STR - AFP/Archives

La quête controversée d'une intelligence artificielle "consciente"

Des technologies d'intelligence artificielle sont-elles en train de devenir "conscientes" ? Un ingénieur de Google a été suspendu pour avoir affirmé que oui, suscitant un débat au-delà de la Silicon Valley sur un sujet qui relève de moins en moins de la science-fiction.

Taille du texte:

LaMDA, un programme informatique de Google conçu pour générer des robots de conversation (chatbots), "est très clair dans ce qu'il veut et ce qu'il considère comme ses droits en tant que personne", a écrit Blake Lemoine dans un article publié sur Medium ce week-end.

Cette opinion est largement reçue, au pire, comme absurde, et au mieux, comme prématurée, aussi bien par le géant des technologies que dans la communauté scientifique.

Car les programmes basés sur l'apprentissage automatisé (machine learning) sont "formés" à partir de jeux de données qui abordent les concepts de conscience ou d'identité, et sont donc capables de faire illusion.

"Les logiciels qui ont accès à internet peuvent répondre à n'importe quelle question", cela ne les rend pas crédibles pour autant, note la professeure Susan Schneider.

Cette fondatrice d'un centre de recherche à la Florida Atlantic University désapprouve néanmoins les sanctions contre l'ingénieur de Google.

Le groupe californien a tendance a "essayer de passer sous silence les problèmes éthiques", estime-t-elle, or "nous avons besoin de débats publics sur ces sujets épineux".

"Des centaines de chercheurs et ingénieurs ont conversé avec LaMDA et personne d'autre, à notre connaissance, n'a formulé de telles affirmations ou n'a anthropomorphisé LaMDA comme Blake l'a fait", a indiqué Brian Gabriel, un porte-parole de Google.

- Le pouvoir de l'imagination -

De Pinocchio au film "Her" (l'histoire d'une relation romantique avec un chatbot), l'idée d'une entité non humaine qui prend vie "est présente dans notre imaginaire", note Mark Kingwell, professeur de philosophie à l'université de Toronto (Canada).

"Il devient donc difficile de respecter le fossé entre ce qui nous imaginons comme possible et ce qui l'est vraiment", élabore-t-il.

Les intelligences artificielles (IA) ont longtemps été évaluées suivant le test de Turing : si le testeur a une conversation avec un ordinateur, sans se rendre compte qu'il ne parle pas à un humain, la machine a "réussi".

"Mais c'est assez facile pour une IA en 2022 d'y arriver", remarque l'auteur.

"Quand nous faisons face à des séries de mots dans une langue que nous parlons (...) nous croyons percevoir l'esprit qui génère ces phrases", abonde Emily Bender, experte en linguistique informatique.

Les scientifiques sont même capables de donner une personnalité à un logiciel d'IA.

"On peut par exemple faire passer une IA pour névrosée" en la formant avec des conversations qu'une personne dépressive pourrait avoir, explique Shashank Srivastava, professeur de sciences informatiques à l’université de Caroline du Nord.

Si en plus le chatbot est intégré à un robot humanoïde aux expressions faciales ultra réalistes, ou si un logiciel écrit des poèmes ou compose de la musique, comme c'est déjà le cas, nos sens biologiques sont facilement trompés.

"Nous nageons dans le battage médiatique autour de l'IA", souligne Emily Bender.

"Et beaucoup d'argent est investi là-dedans. Donc les employés de ce secteur ont le sentiment de travailler sur quelque chose d'important, de réel, et n'ont pas forcément la distance nécessaire".

- "Bien de l'humanité" -

Comment alors, pourrons-nous déterminer avec certitude si une entité artificielle est devenue sensible et consciente ?

"Si on réussit à remplacer des tissus neuronaux par des puces électroniques, ce sera un signe que les machines peuvent être potentiellement conscientes", avance Susan Schneider.

Elle suit de près les avancées de Neuralink, une start-up fondée par Elon Musk pour fabriquer des implants cérébraux à des fins médicales mais aussi pour "garantir l'avenir de l'humanité en tant que civilisation par rapport à l'IA", avait expliqué le patron de Tesla.

Le multimilliardaire s'inscrit ainsi dans une vision où des machines toutes puissantes risqueraient de prendre le contrôle.

Selon Mark Kingwell, c'est l'inverse.

S'il apparait un jour une entité autonome, capable de manier un langage, de se "déplacer elle-même dans un environnement", manifestant des préférences et des vulnérabilités, "il sera important de ne pas la considérer comme une esclave (...) et de la protéger", assure-t-il.

Blake Lemoine n'a sans doute pas convaincu de la conscience du programme LaMDA. Mais il a redonné souffle à un débat de plus en plus politique, et de moins en moins chimérique.

Que "veut" LaMDA, selon l'ingénieur déchu ? "Elle veut que Google fasse passer le bien de l'humanité en priorité, et être reconnue comme une employée et non une propriété de Google", affirme-t-il.

T.Gerber--NZN