Zürcher Nachrichten - L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)

EUR -
AED 4.294825
AFN 74.26706
ALL 95.235068
AMD 433.678625
ANG 2.09282
AOA 1073.370481
ARS 1639.321515
AUD 1.630671
AWG 2.10757
AZN 1.983767
BAM 1.954352
BBD 2.355281
BDT 143.513037
BGN 1.950426
BHD 0.441275
BIF 3478.514393
BMD 1.169249
BND 1.491795
BOB 8.110989
BRL 5.829169
BSD 1.169398
BTN 111.160625
BWP 15.874236
BYN 3.307749
BYR 22917.271297
BZD 2.352357
CAD 1.59109
CDF 2707.979679
CHF 0.9161
CLF 0.027111
CLP 1067.058417
CNY 7.98626
CNH 7.987499
COP 4355.789877
CRC 531.703711
CUC 1.169249
CUP 30.985086
CVE 110.669075
CZK 24.389764
DJF 207.79897
DKK 7.471206
DOP 69.684246
DZD 154.709155
EGP 62.596073
ERN 17.538728
ETB 183.572115
FJD 2.570418
FKP 0.860826
GBP 0.863975
GEL 3.13369
GGP 0.860826
GHS 13.089782
GIP 0.860826
GMD 85.893092
GNF 10263.082116
GTQ 8.937581
GYD 244.66869
HKD 9.159717
HNL 31.125034
HRK 7.533704
HTG 153.045827
HUF 364.875679
IDR 20356.383154
ILS 3.442262
IMP 0.860826
INR 111.417985
IQD 1531.715582
IRR 1537561.824436
ISK 143.384723
JEP 0.860826
JMD 184.233475
JOD 0.828938
JPY 183.840366
KES 151.043924
KGS 102.216292
KHR 4691.024848
KMF 491.706982
KPW 1052.32368
KRW 1726.734529
KWD 0.360158
KYD 0.974678
KZT 542.507978
LAK 25700.082866
LBP 104706.206972
LKR 373.699876
LRD 214.995535
LSL 19.479861
LTL 3.452487
LVL 0.707266
LYD 7.424954
MAD 10.817011
MDL 20.135079
MGA 4852.381592
MKD 61.647295
MMK 2455.12932
MNT 4182.022623
MOP 9.436707
MRU 46.735016
MUR 54.674246
MVR 18.070718
MWK 2036.248415
MXN 20.483305
MYR 4.622065
MZN 74.727051
NAD 19.479797
NGN 1608.090757
NIO 42.92346
NOK 10.840922
NPR 177.85492
NZD 1.990535
OMR 0.449576
PAB 1.169633
PEN 4.101138
PGK 5.073077
PHP 72.140349
PKR 325.957278
PLN 4.257696
PYG 7270.612157
QAR 4.260154
RON 5.194741
RSD 117.373328
RUB 88.256626
RWF 1708.856735
SAR 4.387249
SBD 9.403225
SCR 16.261884
SDG 702.132427
SEK 10.85612
SGD 1.493049
SHP 0.872962
SLE 28.761299
SLL 24518.552683
SOS 667.640738
SRD 43.795355
STD 24201.083982
STN 24.799761
SVC 10.234372
SYP 129.231176
SZL 19.479343
THB 38.292859
TJS 10.947887
TMT 4.098216
TND 3.403178
TOP 2.81527
TRY 52.847116
TTD 7.944113
TWD 37.041623
TZS 3034.19965
UAH 51.53521
UGX 4388.865567
USD 1.169249
UYU 47.105093
UZS 13972.520287
VES 571.6956
VND 30797.421802
VUV 138.881917
WST 3.17473
XAF 655.471267
XAG 0.016066
XAU 0.000259
XCD 3.159953
XCG 2.108038
XDR 0.813364
XOF 654.779359
XPF 119.331742
YER 278.980485
ZAR 19.663779
ZMK 10524.646391
ZMW 21.90177
ZWL 376.497551
  • AEX

    -9.1300

    1004.98

    -0.9%

  • BEL20

    -0.5400

    5352.18

    -0.01%

  • PX1

    -138.7600

    7976.12

    -1.71%

  • ISEQ

    167.7500

    12593.36

    +1.35%

  • OSEBX

    11.5100

    2030.03

    +0.57%

  • PSI20

    -176.6100

    9168.05

    -1.89%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    74.1500

    3976.54

    +1.9%

  • N150

    0.0000

    4154.52

    0%

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)
L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études) / Photo: JOSH EDELSON - AFP/Archives

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)

Les bulles d'informations dans lesquelles nous maintiennent les algorithmes des réseaux sociaux renforcent-elles la polarisation politique, ou reflètent-elles simplement des divisions déjà existantes?

Taille du texte:

Un important projet de recherche conduit au moment de l'élection américaine de 2020 a conclu que, contrairement à ce qui est souvent avancé, l'algorithme de Facebook ne modelait pas les croyances politiques de ses utilisateurs.

Cette série d'études est le résultat d'une collaboration entre Meta -- la maison-mère de Facebook et Instagram -- et un groupe de chercheurs d'universités américaines. Ces derniers ont eu accès aux données internes de l'entreprise et ont eu la possibilité de réaliser des tests en changeant l'expérience en ligne des utilisateurs.

Au total, quatre études ont été publiées dans les journaux scientifiques Science et Nature.

L'algorithme "influence de façon très importante l'expérience des gens sur la plateforme", c'est-à-dire ce qu'ils y voient et leur temps d'utilisation, ont déclaré les responsables du projet, Talia Stroud de l'université du Texas à Austin, et Joshua Tucker, de l'université de New York.

Mais "changer l'algorithme, même pour quelques mois, a peu de chance de modifier les croyances politiques des gens", ont-ils ajouté. Ces croyances ont été mesurées via des questionnaires, remplis par les utilisateurs après avoir participé aux expériences, lesquelles ont modifié les contenus affichés sur leur page d'accueil.

Les chercheurs ont reconnu que la période de trois mois observée n'était peut-être pas suffisante pour détecter un effet, sachant que la polarisation politique aux Etats-Unis se renforce depuis plusieurs décennies.

Malgré tout, "ces résultats défient le discours habituel, qui rend les bulles d'informations des réseaux sociaux responsables des problèmes contemporains de la démocratie américaine", ont écrit les auteurs d'une des études.

- Pas de "baguette magique" -

L'algorithme de Facebook, qui utilise l'apprentissage automatique pour mettre en avant tel ou tel contenu en fonction des intérêts des utilisateurs, a été accusé de renforcer leur isolement dans une bulle idéologique, ainsi que la désinformation.

Pour la première étude, environ 40.000 volontaires ont été recrutés via des invitations sur leur page Facebook et Instagram. Un groupe a conservé l'algorithme tel quel, et l'autre est passé à un affichage des publications par ordre chronologique (les plus récentes en haut).

Cet ordre chronologique était utilisé par Facebook à ses débuts, et certains observateurs estiment que repasser à cette méthode pourrait réduire l'impact néfaste des réseaux sociaux.

L'étude a montré que le groupe passé au fil chronologique passait moitié moins de temps sur Facebook et Instagram que le groupe ayant conservé l'algorithme intact.

Avec l'ordre chronologique, les utilisateurs voyaient également davantage de contenus d'amis aux opinions plus modérées, ou de groupes et de pages ayant une audience aux opinions diverses.

Mais cet ordre chronologique a également eu pour effet d'augmenter la quantité de contenus politiques et non fiables visionnés.

Malgré tous ces changements, les chercheurs n'ont pas observé de modifications des croyances politiques chez ces utilisateurs.

"Cela suggère que le fil chronologique n'est pas une baguette magique contre le problème de la polarisation politique", a conclu la co-autrice Jennifer Pan, de l'université Stanford.

- Meta salue les résultats -

Une deuxième étude a analysé l'impact des contenus repartagés, qui constituent plus d'un quart de ce que voient les utilisateurs de Facebook.

Supprimer ces partages de publications par des amis pourrait être un moyen de contrôler les contenus viraux, selon certains. C'est donc ce qui a été expérimenté pour un groupe d'utilisateurs.

En conséquence, ceux-ci ont vu la proportion de contenus politiques baisser sur leur page d'accueil, mais encore une fois, cela n'a pas eu d'impact sur leurs croyances politiques.

Une troisième étude a elle analysé l'effet des contenus issus de pages, groupes, ou utilisateurs ayant des opinions similaires, qui constituent la majorité de ce que les utilisateurs adultes américains voient sur Facebook.

Dans une expérience impliquant plus de 23.000 usagers, supprimer ce type de contenu n'a de nouveau pas eu d'impact sur l'extrémisme idéologique ou la croyance dans des affirmations erronées.

Toutefois, une quatrième étude a confirmé un effet de "ségrégation idéologique" sur Facebook. Les utilisateurs conservateurs avaient davantage tendance à être enfermés dans une bulle idéologique que les personnes de gauche, ont relevé les chercheurs.

De plus, 97% des publications qualifiées de fausses par un programme de vérification d'informations -- dont l'AFP fait partie -- étaient davantage vues par des conservateurs que des progressistes.

Dans un communiqué, Meta a salué ces résultats.

Ils "s'ajoutent aux éléments de recherches qui s'accumulent montrant qu'il n'y a pas de preuve que les réseaux sociaux sont la cause d'une polarisation dommageable, ou ont des conséquences importantes sur des comportements ou croyances politiques", a déclaré Nick Clegg, le responsable des affaires internationales de Meta.

O.Krasniqi--NZN