Qui est Diella et à quoi sert-elle ?
À l’origine, Diella est un assistant virtuel de la plate-forme e-Albania. En 2025, elle passe un cap : ministre de l’État chargée de surveiller et d’arbitrer les appels d’offres publics. Sur le portail gouvernemental, elle apparaît sous la forme d’un avatar féminin en costume traditionnel. Sa promesse officielle : analyser les dossiers, tracer les décisions, et limiter les passe-droits.
Techniquement, Diella est développée par l’agence publique AKSHI, avec des briques Microsoft/Azure et des modèles de langage fournis par OpenAI. Côté périmètre, ses premières tâches restent cadrées : vérifications documentaires, génération de clauses type, contrôles de cohérence. Le gouvernement évoque une montée en puissance progressive vers des recommandations d’attribution.
Pourquoi maintenant ? Le message à Bruxelles
L’Albanie négocie son entrée dans l’UE. Transparence, lutte contre la corruption et État de droit sont des conditions clés. En nommant une IA au cœur du chantier le plus sensible — les marchés publics —, Edi Rama veut envoyer un signal : l’administration accepte la traçabilité intégrale. C’est audacieux… et politique.
Ce que disent les experts
« En quoi un agent artificiel serait-il plus intègre qu’un être humain ? »
Jean-Gabriel Ganascia, professeur d’informatique, dans une tribune au Monde.
La question claque comme un rappel à la réalité : une IA peut reproduire des biais, « halluciner » des résultats ou être instrumentalisée. Sans transparence sur les données, le code et la supervision humaine, la neutralité revendiquée reste une promesse marketing.
Légalité, responsabilité : le vrai casse-tête
L’opposition dénonce une nomination anticonstitutionnelle : un ministre doit être une personne physique. Le gouvernement rétorque que Diella agit dans un cadre piloté par l’exécutif, avec validation humaine. Mais qui est responsable en cas d’irrégularité ? Le Premier ministre ? L’agence AKSHI (en tant que fournisseur de systèmes d’IA) ? Le débat est ouvert, et l’UE encadre déjà ces usages « à haut risque » via l’AI Act : traçabilité, documentation, contrôle humain effectif.
Atouts revendiqués vs risques concrets
| Ce que promet Diella | Ce qu’il faut surveiller |
|---|---|
| Traçabilité des appels d’offres, décisions auditées. | Transparence du modèle : données d’entraînement, règles, seuils ; publication des critères. |
| Réduction des conflits d’intérêts et des pressions. | Risque de biais qui favorisent certains profils d’entreprises ; nécessité d’audits indépendants. |
| Automatisation = procédures plus rapides et uniformes. | Recours effectifs : à qui contester une décision ? Droit à l’explication accessible. |
| Signal pro-UE : alignement avec les standards de conformité. | Conformité réelle à l’AI Act (gouvernance des modèles, journalisation, supervision humaine). |
| Moins de coûts de gestion du procurement. | Cybersécurité et souveraineté : dépendance cloud, intégrité des modèles, attaques et fuites. |
Ce que cela change pour les entreprises
Des dossiers plus lisibles… si les règles sont publiques
Si Diella standardise l’évaluation, chaque soumissionnaire saura quelles pièces et quels critères pèsent. Mais la règle du jeu doit être accessible : grille d’analyse, pondérations, motifs de rejet détaillés. Sans ça, l’opacité algorithmique remplace l’opacité humaine.
Recours et “droit à l’explication”
La décision finale doit rester humaine. Idéalement : un comité signe l’attribution, l’IA documente et justifie. Les entreprises doivent pouvoir exiger un rapport d’explicabilité et déposer un recours auprès d’une autorité indépendante.
La politique peut-elle s’algorithmer ?
L’IA optimise, mais ne tranche pas les dilemmes. D’où la mise en garde des sociologues des techniques : administrer par calcul peut renforcer la défiance si la responsabilité se dissout. Une machine n’assume ni la controverse, ni l’imprévu. Et quand l’outil porte un visage féminin, certains dénoncent une féminisation instrumentale de l’IA, qui humanise pour mieux faire accepter des décisions techniques.
Ce qu’on regardera dans les prochains mois
1) Transparence
Publication d’un registre des décisions avec motifs, données utilisées, contrôles ex-post.
2) Garde-fous
Preuve d’un contrôle humain réel, possibilité de suspendre l’IA, audits externes réguliers.
3) Conformité UE
Alignement au cadre européen (AI Act) pour un usage public « à haut risque » : gestion des incidents, suivi des biais, documentation complète.
Le mot de la fin
Diella n’est pas juste un gadget. C’est un test grandeur nature de la gouvernance algorithmique dans l’État. Si l’Albanie prouve que l’IA peut rendre les marchés publics plus justes et lisibles, l’expérience fera école. Si le pays échoue sur la transparence, la responsabilité et la loi, le « ministre IA » deviendra le meilleur argument… pour garder des ministres humains.








