Diella, une première ministre IA en Albanie

Oui, un pays européen a confié un portefeuille ministériel à une intelligence artificielle. Présentée le 11 septembre 2025 par le Premier ministre Edi Rama, Diella devient la figure d’un pari XXL : assainir les marchés publics grâce aux algorithmes et montrer patte blanche à Bruxelles. Entre promesse d’incorruptibilité et zones grises juridiques, voici ce que change vraiment cette “ministre” pas comme les autres.
diella ia

Qui est Diella et à quoi sert-elle ?

À l’origine, Diella est un assistant virtuel de la plate-forme e-Albania. En 2025, elle passe un cap : ministre de l’État chargée de surveiller et d’arbitrer les appels d’offres publics. Sur le portail gouvernemental, elle apparaît sous la forme d’un avatar féminin en costume traditionnel. Sa promesse officielle : analyser les dossiers, tracer les décisions, et limiter les passe-droits. 

Techniquement, Diella est développée par l’agence publique AKSHI, avec des briques Microsoft/Azure et des modèles de langage fournis par OpenAI. Côté périmètre, ses premières tâches restent cadrées : vérifications documentaires, génération de clauses type, contrôles de cohérence. Le gouvernement évoque une montée en puissance progressive vers des recommandations d’attribution.

Pourquoi maintenant ? Le message à Bruxelles

L’Albanie négocie son entrée dans l’UE. Transparence, lutte contre la corruption et État de droit sont des conditions clés. En nommant une IA au cœur du chantier le plus sensible — les marchés publics —, Edi Rama veut envoyer un signal : l’administration accepte la traçabilité intégrale. C’est audacieux… et politique. 

Ce que disent les experts

« En quoi un agent artificiel serait-il plus intègre qu’un être humain ? »

Jean-Gabriel Ganascia, professeur d’informatique, dans une tribune au Monde.

La question claque comme un rappel à la réalité : une IA peut reproduire des biais, « halluciner » des résultats ou être instrumentalisée. Sans transparence sur les données, le code et la supervision humaine, la neutralité revendiquée reste une promesse marketing. 

Légalité, responsabilité : le vrai casse-tête

L’opposition dénonce une nomination anticonstitutionnelle : un ministre doit être une personne physique. Le gouvernement rétorque que Diella agit dans un cadre piloté par l’exécutif, avec validation humaine. Mais qui est responsable en cas d’irrégularité ? Le Premier ministre ? L’agence AKSHI (en tant que fournisseur de systèmes d’IA) ? Le débat est ouvert, et l’UE encadre déjà ces usages « à haut risque » via l’AI Act : traçabilité, documentation, contrôle humain effectif. 

Atouts revendiqués vs risques concrets

Ce que promet DiellaCe qu’il faut surveiller
Traçabilité des appels d’offres, décisions auditées.Transparence du modèle : données d’entraînement, règles, seuils ; publication des critères.
Réduction des conflits d’intérêts et des pressions.Risque de biais qui favorisent certains profils d’entreprises ; nécessité d’audits indépendants.
Automatisation = procédures plus rapides et uniformes.Recours effectifs : à qui contester une décision ? Droit à l’explication accessible.
Signal pro-UE : alignement avec les standards de conformité.Conformité réelle à l’AI Act (gouvernance des modèles, journalisation, supervision humaine).
Moins de coûts de gestion du procurement.Cybersécurité et souveraineté : dépendance cloud, intégrité des modèles, attaques et fuites.

Ce que cela change pour les entreprises

Des dossiers plus lisibles… si les règles sont publiques

Si Diella standardise l’évaluation, chaque soumissionnaire saura quelles pièces et quels critères pèsent. Mais la règle du jeu doit être accessible : grille d’analyse, pondérations, motifs de rejet détaillés. Sans ça, l’opacité algorithmique remplace l’opacité humaine. 

Recours et “droit à l’explication”

La décision finale doit rester humaine. Idéalement : un comité signe l’attribution, l’IA documente et justifie. Les entreprises doivent pouvoir exiger un rapport d’explicabilité et déposer un recours auprès d’une autorité indépendante. 

La politique peut-elle s’algorithmer ?

L’IA optimise, mais ne tranche pas les dilemmes. D’où la mise en garde des sociologues des techniques : administrer par calcul peut renforcer la défiance si la responsabilité se dissout. Une machine n’assume ni la controverse, ni l’imprévu. Et quand l’outil porte un visage féminin, certains dénoncent une féminisation instrumentale de l’IA, qui humanise pour mieux faire accepter des décisions techniques.

Ce qu’on regardera dans les prochains mois

1) Transparence

Publication d’un registre des décisions avec motifs, données utilisées, contrôles ex-post. 

2) Garde-fous

Preuve d’un contrôle humain réel, possibilité de suspendre l’IA, audits externes réguliers. 

3) Conformité UE

Alignement au cadre européen (AI Act) pour un usage public « à haut risque » : gestion des incidents, suivi des biais, documentation complète. 

Le mot de la fin

Diella n’est pas juste un gadget. C’est un test grandeur nature de la gouvernance algorithmique dans l’État. Si l’Albanie prouve que l’IA peut rendre les marchés publics plus justes et lisibles, l’expérience fera école. Si le pays échoue sur la transparence, la responsabilité et la loi, le « ministre IA » deviendra le meilleur argument… pour garder des ministres humains. 

Actualités

Abonne toi à la Newsletter

Acquisition > Newsletter : Sidebar