Typologie de contenus: Actualité
Développer l’intelligence artificielle (IA) pour la Justice : entre innovation et sécurisation
Publié le 06 février 2025 - Mis à jour le 10 février 2025
Le ministère de la Justice a engagé des travaux exploratoires sur l’utilisation de l’intelligence artificielle en vue de moderniser le service public de la Justice tout en veillant à encadrer et sécuriser ses usages.

Porteuse d’innovations majeures et de progrès dans de multiples domaines, l’intelligence artificielle (IA) transforme en profondeur nos façons de travailler, de communiquer et de prendre des décisions. Son développement rapide soulève néanmoins des questions essentielles en matière de protection des données, de respect des procédures, de déontologie, d’éthique, de respect des droits fondamentaux et de sécurité. Des impératifs que vise aussi à protéger le règlement européen sur l’intelligence artificielle adopté le 1er août 2024.
Conscient des bénéfices opérationnels que l’IA peut apporter aux agents et aux usagers du service public de la Justice mais aussi des défis qu’elle soulève, le ministère de la Justice a engagé des travaux depuis 2024 pour soutenir et encadrer son utilisation et son développement.
Des cas d’usage concrets pour une Justice plus efficace
Dans une démarche pragmatique et progressive, le ministère de la Justice a identifié quatre cas d’usage prioritaires où l’IA pourrait apporter une réelle valeur ajoutée :
- retranscription d’entretiens : l’IA pourrait automatiser et accélérer la mise en texte de réunions dans un premier temps puis de tous les entretiens utiles aux différents métiers de la justice ;
- aide à la recherche : des outils d’IA pourraient faciliter l’accès aux jurisprudences et aux textes juridiques pour les professionnels du droit ;
- interprétariat et traduction : l’IA permettrait d’améliorer l’accompagnement des justiciables et des professionnels confrontés à la barrière de la langue ;
- résumé de dossiers : des solutions pourraient aider à synthétiser des volumes importants de documents juridiques pour un traitement plus rapide et efficace des affaires.
Une première solution interne, destinée à la retranscription automatique des entretiens, est en cours de développement et devrait voir le jour dès 2025.
Le ministère accompagne par ailleurs le développement d’expérimentations locales d’outils utilisant de l’IA. C’est le cas de l’expérimentation du logiciel Albert, développé par la direction interministérielle du numérique pour les besoins du parquet général de la cour d’appel de Paris et des parquets de son ressort. Ce premier terrain d’expérimentation devrait permettre d’approfondir les travaux de conception d’outils internes pour faciliter le travail des parquets et des greffes.
Une utilisation encadrée pour protéger les droits et les données
L’IA ne peut pas être maniée sans précaution, notamment dans le domaine de la justice où la protection des données est essentielle. Les informations manipulées par les agents (identité des justiciables, décisions judiciaires, etc.) sont des données personnelles, parfois sensibles, et doivent être traitées dans un cadre sécurisé et conformément aux réglementations en vigueur.
Le ministère privilégie ainsi des solutions hébergées sur le territoire national et mène des travaux sur l’encadrement juridique de ces outils pour permettre leur conformité à la réglementation en matière de protection des données.
Par ailleurs, le ministère participe aux réflexions sur l’IA en collaboration avec d’autres ministères, la CNIL, le Conseil d’État ainsi que des acteurs privés comme les legaltechs et les éditeurs juridiques. Il est également présent lors d’événements clés tels que le Mois de l’innovation publique, Vivatech ou encore les Rendez-vous des transformations du droit afin d’échanger sur les avancées technologiques et les bonnes pratiques.
Une charte pour un usage responsable de l’IA
Pour accompagner l’appropriation de ces outils et garantir une utilisation éthique et conforme aux exigences de la législation européenne, le ministère de la Justice élabore actuellement une charte d’usage de l’intelligence artificielle. À destination de l’ensemble de ses agents, cette charte rappellera les règles minimales de prudence et d’attention lors de l’utilisation de solutions recourant à l’IA déjà disponibles sur le marché : la vérification et le contrôle systématique des résultats fournis par l’IA, l’attention au risque de biais, la protection des informations confidentielles et sensibles, l’exclusion de données à caractère personnel ou encore la sobriété numérique.
Cette charte s’inscrit en complément de modules de formation à l’intelligence artificielle et à la donnée conçus par le ministère et mis à disposition de l’ensemble des agents.