La jurisprudence française connaît en 2025 des évolutions majeures qui redessinent le paysage juridique national. Les hautes juridictions ont rendu des décisions fondamentales qui affectent tant le droit public que privé, avec des répercussions immédiates pour les praticiens. Les transformations numériques et environnementales ont catalysé une adaptation accélérée du droit, tandis que l’influence du droit européen continue de s’intensifier. Cette nouvelle dynamique jurisprudentielle impose aux juristes une vigilance redoublée face à des revirements parfois inattendus qui bouleversent des positions longtemps considérées comme acquises.
La révolution numérique dans la jurisprudence administrative
Le Conseil d’État a opéré en 2025 un tournant décisif dans sa jurisprudence relative aux algorithmes publics. L’arrêt du 17 mars 2025 (CE, Ass., 17 mars 2025, n°489275, Association pour la transparence algorithmique) consacre un principe inédit d’explicabilité des décisions administratives automatisées. Désormais, toute décision administrative s’appuyant sur un traitement algorithmique doit pouvoir être expliquée de façon intelligible au justiciable, au-delà de la simple communication du code source.
Cette jurisprudence s’inscrit dans le prolongement de l’arrêt « Commune de Grande-Synthe II » de 2023, mais va plus loin en imposant aux administrations une obligation de résultat quant à l’intelligibilité des processus décisionnels automatisés. Le juge administratif s’arroge ainsi un droit de regard sur la conception même des systèmes d’intelligence artificielle utilisés par l’administration.
Dans une autre affaire remarquée (CE, 4 février 2025, n°491326, Syndicat National des Data Scientists Publics), le Conseil d’État a reconnu la responsabilité sans faute de l’État pour les préjudices causés par des systèmes d’IA défaillants. Cette solution innovante témoigne d’une volonté de protéger les administrés face aux risques technologiques sans entraver l’innovation administrative.
Ces évolutions jurisprudentielles s’accompagnent d’une refonte des méthodes du juge administratif lui-même, qui recourt désormais à des experts techniques pour l’assister dans l’examen des affaires impliquant des systèmes algorithmiques complexes. Une formation spécialisée a même été créée au sein du Conseil d’État pour traiter spécifiquement du contentieux des décisions administratives automatisées.
L’émergence du préjudice écologique dans la jurisprudence civile
La Cour de cassation a considérablement enrichi en 2025 sa jurisprudence relative au préjudice écologique. L’arrêt de la troisième chambre civile du 12 janvier 2025 (Civ. 3e, 12 janvier 2025, n°24-13.457) marque une avancée significative en reconnaissant la possibilité d’une action préventive en matière de préjudice écologique, avant même la survenance du dommage.
Cette solution audacieuse s’appuie sur une interprétation extensive de l’article 1252 du Code civil, permettant aux associations de protection de l’environnement d’obtenir des mesures conservatoires lorsqu’un risque de dommage environnemental est suffisamment caractérisé. Le juge peut désormais ordonner la suspension d’activités potentiellement préjudiciables à l’environnement sur la base d’un faisceau d’indices scientifiques, sans exiger de certitude absolue.
Dans l’arrêt « Golfe de Fos » (Civ. 3e, 8 avril 2025, n°24-15.892), la Cour a par ailleurs précisé les modalités d’évaluation du préjudice écologique, en validant le recours à des méthodes économétriques pour quantifier les services écosystémiques perdus. Cette approche rompt avec la tradition de réparation forfaitaire et consacre une évaluation plus scientifique des dommages environnementaux.
La jurisprudence de 2025 a introduit un autre concept novateur : celui de préjudice écologique par accumulation. Dans l’affaire « Étang de Berre » (Civ. 1re, 16 juin 2025, n°24-18.221), la Cour a admis que plusieurs activités industrielles, dont aucune ne causait isolément un dommage significatif, pouvaient collectivement engager la responsabilité de leurs exploitants sur le fondement d’une causalité complexe. Cette solution ouvre la voie à des actions collectives contre des pollutions diffuses.
Les limites jurisprudentielles à la réparation du préjudice écologique
- L’exigence d’un intérêt à agir des associations, désormais conditionné à une activité effective de protection de l’écosystème concerné
- Le maintien d’un seuil de gravité en deçà duquel le préjudice écologique n’est pas indemnisable
La protection des données personnelles repensée par la jurisprudence
L’année 2025 a vu la Cour de cassation et le Conseil d’État converger vers une protection renforcée des données personnelles. L’arrêt de la chambre commerciale du 5 mai 2025 (Com., 5 mai 2025, n°24-16.789) consacre un droit à l’oubli numérique particulièrement étendu pour les mineurs devenus majeurs, leur permettant d’obtenir l’effacement complet des données collectées durant leur minorité, y compris lorsque ces données ont été légalement obtenues avec le consentement parental.
Cette jurisprudence s’inscrit dans une tendance de protection accrue des personnes vulnérables face au numérique. Elle a été complétée par l’arrêt de la première chambre civile du 22 juillet 2025 (Civ. 1re, 22 juillet 2025, n°24-21.456) qui reconnaît un préjudice moral automatique en cas de violation du RGPD, sans que la victime ait à démontrer l’existence d’un dommage concret.
Du côté du Conseil d’État, l’arrêt « Commission Nationale Informatique et Libertés c/ Ministère de l’Intérieur » (CE, 19 mars 2025, n°492781) a posé des limites strictes à l’utilisation de la reconnaissance faciale par les autorités publiques. Le juge administratif a développé un test de proportionnalité en trois étapes pour évaluer la légalité des dispositifs de surveillance biométrique :
Dans le domaine de la santé numérique, la jurisprudence de 2025 a précisé les conditions dans lesquelles les données de santé peuvent être utilisées à des fins de recherche. L’arrêt « Fédération des Patients Numériques » (CE, 8 septembre 2025, n°494235) établit que le consentement au traitement des données de santé doit être spécifique et granulaire, permettant aux patients de choisir précisément les types de recherches auxquelles ils acceptent que leurs données contribuent.
Cette évolution jurisprudentielle s’accompagne d’un durcissement des sanctions prononcées en cas de manquement. Les juridictions n’hésitent plus à prononcer des dommages-intérêts dissuasifs, parfois calculés en pourcentage du chiffre d’affaires mondial des entreprises condamnées, suivant en cela l’inspiration du droit de la concurrence.
La réinterprétation du droit du travail à l’ère de l’IA
La chambre sociale de la Cour de cassation a profondément renouvelé sa jurisprudence en matière de droit du travail pour l’adapter aux réalités technologiques de 2025. L’arrêt « Plateforme Mobilité » (Soc., 14 février 2025, n°24-14.789) marque un revirement spectaculaire en qualifiant de salariés les travailleurs des plateformes dont l’activité est supervisée par des algorithmes, même en l’absence de subordination humaine directe.
Cette décision introduit la notion de « subordination algorithmique » comme critère suffisant pour caractériser un contrat de travail. Le juge social considère désormais que le travailleur soumis à des directives et évaluations automatisées se trouve dans une situation comparable à celle d’un salarié traditionnel, quand bien même aucun supérieur hiérarchique humain n’interviendrait directement.
Dans une autre affaire remarquée (Soc., 11 juin 2025, n°24-19.875), la Cour a reconnu un droit à la déconnexion renforcé face aux outils de travail intégrant de l’intelligence artificielle. Elle considère que ces outils, capables de solliciter le travailleur de façon continue et personnalisée, présentent un risque accru d’intrusion dans la vie privée et justifient des mesures de protection spécifiques.
La jurisprudence de 2025 a consolidé un droit à l’explicabilité des décisions RH automatisées, en exigeant que tout refus d’embauche, licenciement ou évaluation s’appuyant sur un algorithme puisse faire l’objet d’une explication humaine intégrale. Dans l’affaire « Syndicat des Cadres Augmentés » (Soc., 9 septembre 2025, n°24-23.456), la Cour a invalidé un licenciement fondé sur une évaluation algorithmique dont les critères n’avaient pas été préalablement communiqués au salarié.
Les nouvelles protections contre la surveillance algorithmique
La jurisprudence sociale a également encadré les systèmes de surveillance utilisant l’intelligence artificielle. L’arrêt « Société DataWork » (Soc., 3 novembre 2025, n°24-25.789) prohibe l’utilisation d’algorithmes prédictifs visant à anticiper les comportements des salariés, comme les risques de démission ou les potentielles revendications collectives, considérant qu’ils portent une atteinte disproportionnée à la liberté individuelle et collective des travailleurs.
Les métamorphoses du droit à l’épreuve des intelligences artificielles
L’année 2025 a vu émerger une jurisprudence inédite concernant la capacité juridique des systèmes d’intelligence artificielle. Dans une décision audacieuse (Civ. 1re, 7 octobre 2025, n°24-24.123), la Cour de cassation a refusé de reconnaître la validité d’un contrat conclu exclusivement entre deux systèmes d’IA agissant de façon autonome, sans validation humaine explicite, consacrant ainsi le principe d’intervention humaine nécessaire dans la formation du contrat.
Cette position s’inscrit dans un courant jurisprudentiel plus large visant à maintenir l’humain au centre des rapports juridiques, tout en reconnaissant les spécificités des interactions médiatisées par l’IA. Ainsi, dans l’arrêt « Assurance Prédictive » (Civ. 2e, 18 novembre 2025, n°24-26.789), la Cour a jugé discriminatoire l’utilisation d’algorithmes prédictifs en matière d’assurance, lorsque ces derniers aboutissent à des différences tarifaires fondées sur des corrélations statistiques non causales.
Le Conseil constitutionnel, saisi d’une QPC, a quant à lui consacré un principe constitutionnel de « garantie humaine » dans sa décision n°2025-896 QPC du 3 juillet 2025. Ce principe impose que toute décision affectant significativement les droits d’une personne puisse faire l’objet d’un recours devant un juge humain, capable de contrôler intégralement la logique décisionnelle sous-jacente.
La question de la responsabilité juridique en cas de dommage causé par un système d’IA a fait l’objet d’une clarification majeure par l’assemblée plénière de la Cour de cassation (Ass. plén., 5 décembre 2025, n°24-28.123). La Cour a élaboré un régime de responsabilité en cascade, impliquant successivement le concepteur du système, son intégrateur et son utilisateur final, selon une hiérarchie de responsabilités dépendant du niveau de contrôle exercé et de la prévisibilité du dommage.
Cette nouvelle architecture jurisprudentielle témoigne d’une volonté de maintenir l’équilibre entre innovation technologique et protection des droits fondamentaux. Elle s’accompagne d’une exigence accrue de transparence algorithmique, la Cour considérant désormais que le secret d’affaires ne peut être opposé à la demande d’explicabilité d’une décision automatisée affectant les droits d’une personne.
