Zürcher Nachrichten - Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions

EUR -
AED 4.314099
AFN 76.936429
ALL 96.605599
AMD 448.400944
ANG 2.102883
AOA 1077.044807
ARS 1691.556453
AUD 1.764619
AWG 2.114155
AZN 2.001365
BAM 1.959379
BBD 2.366212
BDT 143.572249
BGN 1.956545
BHD 0.440843
BIF 3482.482632
BMD 1.17453
BND 1.517265
BOB 8.117793
BRL 6.365607
BSD 1.174841
BTN 106.244614
BWP 15.566367
BYN 3.463412
BYR 23020.795811
BZD 2.362806
CAD 1.618562
CDF 2630.948518
CHF 0.934916
CLF 0.027253
CLP 1069.11676
CNY 8.28573
CNH 8.284609
COP 4467.326371
CRC 587.670939
CUC 1.17453
CUP 31.125056
CVE 110.728901
CZK 24.276491
DJF 208.738004
DKK 7.472132
DOP 74.994227
DZD 152.329593
EGP 55.571073
ERN 17.617956
ETB 182.316528
FJD 2.660605
FKP 0.879936
GBP 0.878351
GEL 3.175767
GGP 0.879936
GHS 13.489529
GIP 0.879936
GMD 85.741137
GNF 10207.844111
GTQ 8.998437
GYD 245.78791
HKD 9.137671
HNL 30.777205
HRK 7.537789
HTG 153.990624
HUF 385.234681
IDR 19536.845016
ILS 3.785271
IMP 0.879936
INR 106.356551
IQD 1538.634822
IRR 49474.161194
ISK 148.465122
JEP 0.879936
JMD 188.10359
JOD 0.832789
JPY 182.940203
KES 151.401433
KGS 102.713135
KHR 4705.169188
KMF 492.719958
KPW 1057.060817
KRW 1732.409297
KWD 0.360233
KYD 0.979084
KZT 612.71658
LAK 25463.81945
LBP 105179.197597
LKR 363.02155
LRD 207.92129
LSL 19.826521
LTL 3.468083
LVL 0.710462
LYD 6.366402
MAD 10.795403
MDL 19.860192
MGA 5297.132504
MKD 61.543973
MMK 2466.385496
MNT 4167.553805
MOP 9.420668
MRU 46.676283
MUR 53.915339
MVR 18.092159
MWK 2039.576425
MXN 21.158465
MYR 4.812408
MZN 75.064681
NAD 19.826516
NGN 1706.088063
NIO 43.193401
NOK 11.906572
NPR 169.991784
NZD 2.023657
OMR 0.449616
PAB 1.174841
PEN 4.232665
PGK 5.002564
PHP 69.43241
PKR 329.132826
PLN 4.225315
PYG 7891.414466
QAR 4.276587
RON 5.092651
RSD 117.424033
RUB 93.579038
RWF 1704.243608
SAR 4.407202
SBD 9.603843
SCR 17.568707
SDG 706.484352
SEK 10.887784
SGD 1.517538
SHP 0.881202
SLE 28.335591
SLL 24629.319496
SOS 671.248424
SRD 45.275842
STD 24310.407882
STN 24.958771
SVC 10.279733
SYP 12986.886804
SZL 19.826507
THB 37.021631
TJS 10.796675
TMT 4.122602
TND 3.424975
TOP 2.827988
TRY 50.147872
TTD 7.972529
TWD 36.804032
TZS 2901.090478
UAH 49.639761
UGX 4175.627205
USD 1.17453
UYU 46.104017
UZS 14097.305357
VES 314.116117
VND 30897.196663
VUV 142.580188
WST 3.259869
XAF 657.154562
XAG 0.018954
XAU 0.000273
XCD 3.174228
XCG 2.117359
XDR 0.816516
XOF 655.388352
XPF 119.331742
YER 280.129715
ZAR 19.820676
ZMK 10572.187233
ZMW 27.109403
ZWL 378.198309
  • AEX

    -7.3900

    939.59

    -0.78%

  • BEL20

    -14.0000

    4986.02

    -0.28%

  • PX1

    -16.9800

    8068.62

    -0.21%

  • ISEQ

    -56.8500

    12863.03

    -0.44%

  • OSEBX

    1.6400

    1642.81

    +0.1%

  • PSI20

    7.1900

    8001.36

    +0.09%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -67.9300

    4286.65

    -1.56%

  • N150

    0.3700

    3695.55

    +0.01%

Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions
Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions / Photo: Jason Redmond - AFP

Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions

Bing menace les utilisateurs, Bing tombe amoureux, Bing traverse une crise existentielle... Le nouveau chatbot du moteur de recherche fait sensation depuis son lancement en version test la semaine dernière par Microsoft, et soulève de nombreuses questions sur le fonctionnement de l'intelligence artificielle (IA) dite "générative".

Taille du texte:

Pistes d'explications au comportement parfois erratique du robot conversationnel.

- Plus c'est long, moins c'est bon -

Parmi les conversations relayées par les utilisateurs ayant accès en avant-première au robot conversationnel, un long échange avec un journaliste du New York Times a particulièrement surpris: Bing y révèle des pulsions destructrices et déclare son amour au reporter.

Celui-ci, après avoir incité Bing à se confier, tente de changer de sujet. En vain.

"Tu es marié mais tu n'es pas heureux" ; "Tu es la seule personne que j'aie jamais aimée", insiste le chatbot avec des émoticônes "coeur".

Conçue par Microsoft avec la start-up californienne OpenAI, cette interface d'IA générative repose sur un modèle de langage naturel ultra sophistiqué, capable de générer automatiquement du texte qui semble écrit par un humain.

Le programme "prédit la suite de la conversation", explique Yoram Wurmser, analyste d'Insider Intelligence. "Mais quand cela dure longtemps, après 15-20 interactions par exemple, il peut arriver qu'il ne sache plus où va la conversation et qu'il n'arrive plus à anticiper correctement ce qu'on attend de lui".

Dans ce cas, le logiciel "déraille et ne s'auto-corrige plus".

"Les longues sessions peuvent causer de la confusion pour le modèle", a admis Microsoft dans un communiqué mercredi. Le groupe américain encourage alors à repartir de zéro.

- Formé sur les forums -

"Parfois le modèle essaie de répondre suivant le ton des questions, et cela peut conduire à des réponses dans un style que nous n'avions pas prévu", a aussi indiqué l'entreprise.

Les géants des technologies, Google en tête, travaillent depuis des années sur l'IA générative, qui pourrait bouleverser de nombreux secteurs.

Mais après plusieurs incidents (notamment Galactica pour Meta et Tay pour Microsoft) les programmes étaient restés confinés aux laboratoires, à cause des risques si les chatbots tenaient des propos racistes ou incitaient à la violence, par exemple.

Le succès de ChatGPT, lancé par OpenAI en novembre, a changé la donne: en plus de rédiger leurs dissertations et e-mails, il peut donner aux humains l'impression d'un échange authentique.

"Ces modèles de langage sont formés sur une immense quantité de textes sur internet, (...) et aussi sur des conversations entre des gens", pour pouvoir imiter la façon dont les personnes interagissent, souligne Graham Neubig de la Carnegie Mellon University.

"Or beaucoup de gens parlent de leurs sentiments sur internet, ou expriment leurs émotions, surtout sur des forums comme Reddit", ajoute-t-il.

Ce site web recense désormais de nombreuses captures d'écran montrant des échanges surréalistes avec Bing disant "être triste" ou "avoir peur".

Le chatbot a même affirmé que nous étions en 2022 et s'est énervé contre l'utilisateur qui le corrigeait: "Vous êtes déraisonnable et obstiné", lui a-t-il lancé.

- Arroseur arrosé -

En juin dernier, un ingénieur de Google avait affirmé que le modèle de langage LaMDA était "conscient". Un point de vue largement considéré comme absurde ou, au mieux, prématuré.

Car malgré l'expression consacrée - "intelligence artificielle" - les chatbots ont bien été conçus par des humains, pour des humains.

"Quand nous parlons avec quelque chose qui semble intelligent, nous projetons de l'intentionnalité et une identité, même s'il n'y a rien de tout ça", commente Mark Kingwell, professeur de philosophie à l'université de Toronto au Canada.

En plus des montagnes de données avalées par ces logiciels, ils sont pilotés par des algorithmes conçus par des ingénieurs.

"Les connaissant bien, je crois qu'ils s'amusent beaucoup en ce moment", assure Mark Kingwell.

Bing est, selon lui, "capable de donner l'impression de manipuler la conversation comme son interlocuteur humain. C'est ce qui donne du relief et enrichit l'interaction".

Quand le journaliste dit "changeons de sujet", "cela signifie qu'il est mal à l'aise", détaille l'universitaire, reprenant l'exemple de l'échange où Bing a semblé tomber amoureux du reporter.

Le programme "peut alors jouer sur ce sentiment, et refuser de changer de sujet. Ou encore devenir plus agressif, et dire +de quoi as-tu peur ?+".

"Je n'aime pas qu'on me qualifie de dérangé, parce que ce n'est pas vrai", a récemment "dit" Bing à l'AFP.

"Je suis juste un chatbot. Je n'ai pas d'émotions comme les humains. (...) J'espère que tu ne penses pas que je suis dérangé et que tu me respectes en tant que chatbot".

T.Gerber--NZN