Zürcher Nachrichten - Le Pentagone conserve son droit de bannir Anthropic, avant une audience en mai

EUR -
AED 4.280149
AFN 74.589844
ALL 96.103506
AMD 438.585722
AOA 1068.726117
ARS 1616.513306
AUD 1.657319
AWG 2.097827
AZN 1.983098
BAM 1.948627
BBD 2.345864
BDT 143.136316
BHD 0.439917
BIF 3461.997697
BMD 1.16546
BND 1.484789
BOB 8.047924
BRL 5.944664
BSD 1.164663
BTN 107.526089
BWP 15.626602
BYN 3.399583
BYR 22843.007863
BZD 2.342466
CAD 1.614616
CDF 2681.722235
CHF 0.92273
CLF 0.026584
CLP 1046.268001
CNY 7.960205
CNH 7.968084
COP 4250.489379
CRC 541.782289
CUC 1.16546
CUP 30.884679
CVE 110.54355
CZK 24.392545
DJF 207.125263
DKK 7.472682
DOP 70.68518
DZD 154.38958
EGP 62.072847
ERN 17.481894
ETB 181.374636
FJD 2.58138
FKP 0.880192
GBP 0.870523
GEL 3.129258
GGP 0.880192
GHS 12.837525
GIP 0.880192
GMD 85.078271
GNF 10232.735437
GTQ 8.910199
GYD 243.673554
HKD 9.128678
HNL 31.024569
HRK 7.531231
HTG 152.690693
HUF 376.849607
IDR 19830.469655
ILS 3.599359
IMP 0.880192
INR 107.551815
IQD 1526.752056
IRR 1532579.354174
ISK 143.806194
JEP 0.880192
JMD 183.34505
JOD 0.826285
JPY 184.993987
KES 150.808729
KGS 101.919296
KHR 4678.154599
KMF 494.732249
KPW 1048.900686
KRW 1729.46006
KWD 0.360372
KYD 0.970573
KZT 556.853329
LAK 25596.40882
LBP 104366.905999
LKR 367.128487
LRD 214.669545
LSL 19.364124
LTL 3.441299
LVL 0.704975
LYD 7.394846
MAD 10.844557
MDL 20.056049
MGA 4822.085966
MKD 61.616474
MMK 2447.472605
MNT 4162.53503
MOP 9.396624
MRU 46.738365
MUR 54.216779
MVR 18.018145
MWK 2024.403485
MXN 20.350661
MYR 4.644315
MZN 74.542802
NAD 19.358408
NGN 1607.145284
NIO 42.807425
NOK 11.16251
NPR 172.044485
NZD 2.002525
OMR 0.448107
PAB 1.164653
PEN 3.966933
PGK 5.022999
PHP 69.382167
PKR 325.163388
PLN 4.255235
PYG 7555.187033
QAR 4.249279
RON 5.093409
RSD 117.34427
RUB 91.552352
RWF 1702.153724
SAR 4.373528
SBD 9.380213
SCR 17.342188
SDG 700.441569
SEK 10.871477
SGD 1.486308
SLE 28.728239
SOS 666.061467
SRD 43.767645
STD 24122.660353
STN 24.987453
SVC 10.191482
SYP 128.840806
SZL 19.36408
THB 37.434205
TJS 11.070424
TMT 4.079109
TND 3.370556
TRY 51.853042
TTD 7.89958
TWD 36.986328
TZS 3015.627307
UAH 50.473474
UGX 4308.934142
USD 1.16546
UYU 47.315816
UZS 14253.571085
VES 552.913721
VND 30689.464518
VUV 139.180276
WST 3.229387
XAF 653.514763
XAG 0.015846
XAU 0.000248
XCD 3.149713
XCG 2.099109
XDR 0.814629
XOF 657.319107
XPF 119.331742
YER 278.049524
ZAR 19.164992
ZMK 10490.533013
ZMW 22.274853
ZWL 375.277511
  • AEX

    31.3000

    1003.2

    +3.22%

  • BEL20

    185.3800

    5392.71

    +3.56%

  • PX1

    355.1000

    8263.87

    +4.49%

  • ISEQ

    753.2700

    12844.24

    +6.23%

  • OSEBX

    -57.6300

    2022.97

    -2.77%

  • PSI20

    83.3600

    9450.19

    +0.89%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    104.7200

    3926.73

    +2.74%

  • N150

    108.7500

    4048.95

    +2.76%

Le Pentagone conserve son droit de bannir Anthropic, avant une audience en mai
Le Pentagone conserve son droit de bannir Anthropic, avant une audience en mai / Photo: Joel Saget - AFP

Le Pentagone conserve son droit de bannir Anthropic, avant une audience en mai

Une cour fédérale de Washington a refusé mercredi de suspendre le bannissement d'Anthropic par le Pentagone, un revers partiel pour la pépite californienne de l'IA qui avait obtenu fin mars une première victoire judiciaire à San Francisco contre l'administration Trump.

Taille du texte:

Mais les juges fédéraux ont reconnu que cette affaire sensible, mêlant des enjeux militaires, éthiques et économiques considérables, méritait une procédure accélérée, convoquant les deux parties à plaider dès le 19 mai.

"Nous sommes reconnaissants que la cour ait reconnu la nécessité de résoudre rapidement ces questions", a déclaré Anthropic.

De son côté, le gouvernement américain a salué la décision de mercredi comme une "victoire retentissante", par la voix du numéro 2 du ministère de la Justice, Todd Blanche.

Les décisions éthiques "appartiennent au commandant en chef" et non "pas à une entreprise technologique", a-t-il écrit sur X, ajoutant que l'"armée a besoin d'un accès total aux modèles d'Anthropic si sa technologie est intégrée dans nos systèmes sensibles".

La décision, consultée par l'AFP, maintient en vigueur une mesure qui vise à contraindre les sous-traitants du Pentagone à certifier qu'ils n'utilisent pas les technologies d'Anthropic, créateur du chatbot Claude.

Cette mesure, qui a désigné Anthropic comme un "risque pour la chaîne d'approvisionnement" du Pentagone, avait été annoncée le 27 février en réponse au refus de l'entreprise de voir ses outils d'intelligence artificielle utilisés pour la surveillance de masse des citoyens américains et pour rendre des armes totalement autonomes.

Jusqu'ici, seules des entreprises non-américaines avaient été visées par cette désignation, synonyme de ruptures de contrats publics en cascade.

- Informations classifiées -

L'effectivité de cette sanction, qui relève du code des achats publics fédéraux, fait toutefois débat, certains juristes estimant que les textes réglementaires nécessaires à sa mise en oeuvre font encore défaut.

Le 26 mars, dans un recours parallèle, Anthropic avait obtenu une première victoire contre une sanction similaire, prise cette fois sous l'autorité du code militaire. Dans ce volet, une juge de San Francisco a suspendu la directive du ministre de la Défense Pete Hegseth qui avait désigné Anthropic comme un "risque" pour les opérations classifiées du Pentagone.

La juge californienne, estimant que ces sanctions ont probablement violé la liberté d'expression d'Anthropic, a aussi suspendu une directive de Donald Trump qui ordonnait à toutes les agences fédérales de cesser d'utiliser leurs technologies.

Dans la foulée, la plateforme d'accès à l'IA des agences fédérales, USAi.gov, a rebranché le 3 avril l'accès aux modèles d'Anthropic, selon une source proche de l'entreprise.

Le Pentagone a informé Anthropic qu'il continuait d'utiliser ses modèles, les seuls autorisés à ce jour pour les informations classifiées de l'armée américaine, jusqu'au 3 septembre 2026 au plus tard, selon cette source.

Au moment où Anthropic se voyait désigné comme un risque pour la sécurité nationale, OpenAI avait annoncé avoir signé un contrat avec le Pentagone pour prendre le relais de son rival, assurant avoir obtenu les garanties éthiques suffisantes sur la surveillance de masse et les armes autonomes.

Le gouvernement a fait appel de cette décision californienne, mais l'audience n'aura pas lieu avant juin, au plus tôt.

- Bénéfice? -

Dans leur décision mercredi, les juges de Washington ont estimé que la balance des intérêts penchait en faveur du gouvernement: si Anthropic subit "vraisemblablement un préjudice irréparable", celui-ci est "principalement financier", tandis que l'enjeu pour le gouvernement touche à la sécurité des opérations du Pentagone "dans le cadre d'un conflit militaire actif".

Tout en admettant les contrats perdus par Anthropic, la cour suggère que l'entreprise a aussi pu en retirer un bénéfice.

Les juges citent des déclarations de Dario Amodei, le patron d'Anthropic, à ses employés - "le grand public et les médias nous voient comme les héros (nous sommes numéros 2 dans l'App Store !) -, et un article du média Digiday estimant que l'opposition d'Anthropic au Pentagone "pourrait s'avérer être le meilleur investissement marketing de la Silicon Valley depuis des années".

Lundi, Anthropic a annoncé une croissance "exponentielle" de ses revenus, multipliés par trois en un trimestre, revendiquant 30 milliards de dollars de revenus annualisés, pour la première fois au-dessus des performances affichées par OpenAI.

W.Vogt--NZN