« Révolution », « nouvelle donne », « fin de la récréation », « fin de la zone de non droit », « fin du far west juridique »… L’entrée en vigueur du règlement de l’Union européenne sur les services numériques plus communément appelé digital servicies act (DSA) n’en finit plus d’inspirer les auteurs qui y voient à juste titre un changement de paradigme pour les services intermédiaires en ligne. Ces services que le DSA définit comme ceux qui transportent, mettent en cache ou hébergent des informations fournies par des personnes physiques ou morales qui utilisent ces services (les destinataires du service) ne sont pas responsables des informations apportées par leurs utilisateurs faute d’être considérés comme des éditeurs de services. Le DSA, tout en ne remettant pas en cause ce principe, a développé de nouvelles obligations de vigilance et d’organisation à respecter par les services intermédiaires. Ces obligations visent principalement à prévenir et encadrer la mise en ligne de contenus illicites tout en imposant le retrait des contenus de ce type ayant malgré tout été rendus disponibles. L’objet du DSA n’est donc pas de rendre responsables les services intermédiaires des contenus publiés – la responsabilité repose sur les personnes ayant apporté les contenus – mais de leur imposer de limiter, de réguler et de retirer les contenus problématiques. A défaut de respecter ces obligations, les services intermédiaires peuvent alors être responsables non pas pour le contenu publié mais pour le non respect des obligations posées par le DSA.
Le contrôle du respect des obligations posées par le DSA est réparti entre les Etats membres et la Commission européenne selon la taille du service concerné. Les très grandes plateformes en ligne (TGPL) et les très grands moteurs de recherche en ligne (TGMRL) relèvent par principe directement de l’Union européenne et les services plus modestes de l’Etat membre dans lequel ils ont leur « établissement principal ».
Les services audiovisuels figurent en bonne place parmi les services intermédiaires visés par le DSA. Plusieurs plateformes de partage de vidéos figurent dans la liste des TGPL établie par la Commission européenne comme le prévoit l’article 33, §6 du DSA. Au-delà des TGPL, plusieurs plateformes de même type relèvent de la compétence des Etats membres comme Twitch ou Dailymotion par exemple. Ce constat n’est pas sans poser plusieurs questions. Les plateformes de partage de vidéos (PPV) tiennent leur nom de la directive SMA qui encadre spécifiquement les services audiovisuels. Le DSA n’exclut pas l’application de la directive SMA. Le DSA et la directive SMA s’appliquent donc tous deux aux plateformes concernées. Comment les exigences posées par cette directive et celles posées par le DSA vont-elles s’articuler ? Sur le fond du droit applicable, le DSA apporte-il des exigences supplémentaires par rapport à ce que prévoit déjà la directive SMA ? En dehors des PPV, les autres services audiovisuels encadrés par la directive SMA sont-ils concernés par le DSA ? Ainsi, une chaîne de télévision ou un service audiovisuel à la demande (SMAD) peut-il se voir opposer le DSA ?
Les réponses à ces questions sont essentielles car elles permettent aux professionnels de l’audiovisuel de déterminer dans quelle mesure ce nouveau texte fleuve (plus de 100 pages) qu’est le DSA s’applique ou non à leurs activités.
Afin de répondre à ces interrogations, il convient pour commencer de déterminer à quels services audiovisuels s’applique le DSA (I) pour ensuite présenter les nouvelles règles qui s’imposent à ces services (II). Nous verrons par la suite que le DSA organise des modalités de contrôle et de sanction efficaces des PPV (III). Pour finir, nous déterminerons quelle peut être l’influence du DSA sur le cadre normatif de l’audiovisuel existant notamment pour les services que ce texte n’encadre pas (IV).
(Article de Marc Le Roy (Docteur en droit, Chargé d’enseignements aux universités de Lyon III et Nantes et au CEIPI de Strasbourg, Directeur de Droit des arts) originellement publié le 2 juin 2024. Dernière mise à jour le 29 avril 2026)
Cet article est actualisé régulièrement ici quand les événements l’exigeront. L’application du DSA est en perpétuel mouvement. La publication de ce travail uniquement en ligne permettra de le modifier facilement au fil de l’eau.
Pour faciliter la lecture, les dernières modifications apparaitront surlignées en vert dans le texte.
Ce travail a été très long à réaliser. J’espère que tout le temps qui j’y ai passé (et que j’y passe encore pour les actualisations régulières) vous en fera gagner.
Pour toute remarque, vous pouvez me joindre facilement sur LinkedIn, X (Twitter) ou via droitducinema.fr
Ce travail peut être cité de la façon suivante : Marc Le Roy, Le DSA et les services audiovisuels, droitducinema.fr, juin 2024 (article régulièrement actualisé en ligne).
Plan :
I- L’applicabilité du DSA à certains services audiovisuels. 4
• Inapplicabilité aux SMAD et aux chaînes – 4
• Une applicabilité territoriale élargie – 6
• Un mode de désignation des services concernés plus efficace dans le DSA – 7
II- Une régulation large des contenus et du fonctionnement des PPV. 8
A- La régulation des contenus publiés sur les PPV. 8
• Encadrement des communications commerciales – 8
B- La régulation du fonctionnement des PPV. 16
• Régulation des algorithmes – 16
• Accessibilité des services – 17
III- L’efficacité des mesures de contrôle et de sanction des PPV organisées par le DSA. 19
A- Vers des modalités de contrôle et de sanction des chaînes et des SMAD plus efficaces. 21
• La mise en place, à l’image du DSA, de sanctions plus efficaces. 23
B- Le recours inspiré aux situations de crise. 25
C- L’influence du DSA pour contrôler les algorithmes de recommandation des SMAD. 25
« Révolution », « nouvelle donne », « fin de la récréation », « fin de la zone de non droit », « fin du far west juridique »… L’entrée en vigueur du règlement de l’Union européenne sur les services numériques plus communément appelé digital services act (DSA)[1] n’en finit plus d’inspirer les auteurs[2] qui y voient à juste titre un changement de paradigme pour les services intermédiaires en ligne. Ces services que le DSA définit comme ceux qui transportent, mettent en cache ou hébergent des informations fournies par des personnes physiques ou morales qui utilisent ces services (les destinataires du service)[3] ne sont pas responsables des informations apportées par leurs utilisateurs faute d’être considérés comme des éditeurs de services. Le DSA, tout en ne remettant pas en cause ce principe[4], a développé de nouvelles obligations de vigilance et d’organisation à respecter par les services intermédiaires. Ces obligations visent principalement à prévenir et encadrer la mise en ligne de contenus illicites tout en imposant le retrait des contenus de ce type ayant malgré tout été rendus disponibles. L’objet du DSA n’est donc pas de rendre responsables les services intermédiaires des contenus publiés[5] – la responsabilité repose sur les personnes ayant apporté les contenus – mais de leur imposer de limiter, de réguler et de retirer les contenus problématiques. A défaut de respecter ces obligations, les services intermédiaires peuvent alors être responsables non pas pour le contenu publié mais pour le non respect des obligations posées par le DSA[6].
Le contrôle du respect des obligations posées par le DSA est réparti entre les Etats membres et la Commission européenne selon la taille du service concerné[7]. Les très grandes plateformes en ligne (TGPL) et les très grands moteurs de recherche en ligne (TGMRL) [8] relèvent par principe[9] directement de l’Union européenne[10] et les services plus modestes de l’Etat membre dans lequel ils ont leur « établissement principal »[11].
Les services audiovisuels figurent en bonne place parmi les services intermédiaires visés par le DSA. Plusieurs plateformes de partage de vidéos figurent dans la liste des TGPL établie par la Commission européenne comme le prévoit l’article 33, §6 du DSA[12]. Au-delà des TGPL, plusieurs plateformes de même type relèvent de la compétence des Etats membres comme Twitch ou Dailymotion par exemple. Ce constat n’est pas sans poser plusieurs questions. Les plateformes de partage de vidéos (PPV) tiennent leur nom de la directive SMA qui encadre spécifiquement les services audiovisuels[13]. Le DSA n’exclut pas l’application de la directive SMA[14]. Le DSA et la directive SMA s’appliquent donc tous deux aux plateformes concernées. Comment les exigences posées par cette directive et celles posées par le DSA vont-elles s’articuler ? Sur le fond du droit applicable, le DSA apporte-il des exigences supplémentaires par rapport à ce que prévoit déjà la directive SMA ? En dehors des PPV, les autres services audiovisuels encadrés par la directive SMA sont-ils concernés par le DSA ? Ainsi, une chaîne de télévision ou un service audiovisuel à la demande (SMAD) peut-il se voir opposer le DSA ?
Les réponses à ces questions sont essentielles car elles permettent aux professionnels de l’audiovisuel de déterminer dans quelle mesure ce nouveau texte fleuve (plus de 100 pages) qu’est le DSA s’applique ou non à leurs activités.
Afin de répondre à ces interrogations, il convient pour commencer de déterminer à quels services audiovisuels s’applique le DSA (I) pour ensuite présenter les nouvelles règles qui s’imposent à ces services (II). Nous verrons par la suite que le DSA organise des modalités de contrôle et de sanction efficaces des PPV (III). Pour finir, nous déterminerons quelle peut être l’influence du DSA sur le cadre normatif de l’audiovisuel existant notamment pour les services que ce texte n’encadre pas (IV).
L’applicabilité du DSA à certains services audiovisuels.
L’ensemble des services audiovisuels, c’est-à-dire les services dont l’objet principal est de proposer de l’image animée[15], n’est pas concerné par l’application du DSA. Si l’on s’en tient à la directive SMA, les services audiovisuels sont les chaînes de télévision, les services de médias audiovisuels à la demande (SMAD) et les plateformes de partage de vidéos (PPV) qui sont les trois services visés par cette directive. De ces trois types de services, seuls les derniers sont concernés par le contenu du DSA.
Les services exclus.
- Inapplicabilité aux SMAD et aux chaînes – Ces services sont sous la responsabilité d’éditeurs qui sont, par définition, responsable de leurs programmes à la différence des PPV[16]. Il n’y a pas pour eux au sens du DSA de relations entre un service intermédiaire et un destinataire de service qui alimente par exemple le service en contenus comme le prévoit l’article 3 du DSA. Les éditeurs des chaînes et des SMAD ont la responsabilité éditoriale des contenus qui sont diffusés par les chaînes ou disponibles sur les SMAD, c’est-à-dire un contrôle effectif sur l’organisation et la sélection de ces contenus[17]. Dans ces conditions, le recours au DSA est inutile pour ces services qui ont leur propre système de responsabilité[18] et dont l’organisation est déjà fortement régulée par la directive SMA, ses transpositions nationales dans chaque pays membre et les régulateurs nationaux comme l’ARCOM en France. Bien que nouvellement concernées par la directive SMA, les plateformes de partage de vidéos sont pour leur part également encadrées par le DSA.
Les services concernés.
- Applicabilité aux PPV – Les PPV sont encadrées par la directive SMA qui en donne une définition en son article premier[19]. A la différence des chaînes de télévision et des SMAD, la directive SMA précise que les gestionnaires des PPV ne sont pas des éditeurs de services car ils ne choisissent pas les contenus qui y sont disponibles mais ne font que les organiser. Ce sont les utilisateurs de ces PPV qui alimentent ces services en programmes et en vidéos. Les transpositions dans les différents pays de l’Union de la directive SMA[20] imposent aux PPV des obligations spécifiques qui leur sont propres[21]. Les PPV peuvent également être considérées comme des services intermédiaires au sens du DSA. Ces plateformes doivent alors respecter un certain nombre d’obligations qui découlent de la catégorie de services intermédiaires à laquelle ils appartiennent. La liste établie par la Commission européenne des très grandes plateformes en ligne et très grands moteurs de recherche en ligne[22] contient plusieurs services qui répondent a priori[23] à la définition de PPV dont YouTube, Pornhub, Facebook, Instagram, Snapchat, Stripchat, TikTok, X (Twitter), Xvideos. Les plateformes qui répondent à la qualification de services intermédiaires au sens du DSA et à la définition de PPV – tout en étant territorialement concernées par les règles issues de la directive SMA – doivent respecter les règles issues des deux textes. Rappelons que le DSA précise en son article 2 que ce règlement « s’entend sans préjudice des règles établies par d’autres actes juridiques de l’Union […] en particulier la directive SMA 2010/13/UE ». Il est intéressant de constater que les règles issues de la directive SMA concernant les PPV et le DSA sont souvent assez proches. On peut même considérer que les deux textes partagent une même philosophie[24] qui vise à imposer une organisation particulière (des règles de transparence) et des règles de modération des contenus à des acteurs numériques qui ne sont pas responsables des contenus disponibles sur leur service car ces derniers sont mis en ligne par les utilisateurs de ces services[25]. Les deux textes imposent par exemple aux gestionnaires des plateformes d’intervenir en cas de non respect de règles préétablies tout en développant l’information et les outils apportés aux utilisateurs de ces services afin que ces derniers puissent avoir connaissance des règles à respecter. Les deux textes ne rendent pas pour autant les services concernés responsables des contenus mis en ligne mais les rendent responsables en cas d’inaction[26].
Le droit des PPV français portant transposition de la directive SMA[27] impose aux PPV qui relèvent de la compétence de la France[28] de respecter un certain nombre de règles en matière de communications commerciales[29], de protection de l’enfance et de l’adolescence et de respect de la dignité de la personne. Les contenus relatifs au terrorisme ou contenant une incitation à la haine ou à la violence sont également visés, tout comme la gestion des données personnelles des mineurs. L’ensemble de ces secteurs peut donner lieu à la mise en place de codes de bonne conduite dont l’inapplication peut entraîner des sanctions. Le droit des PPV impose également la mise en place de procédure de règlement des différents entre les utilisateurs des PPV et leurs gestionnaires pouvant donner lieu à la saisine de l’ARCOM[30].
- Une applicabilité territoriale élargie – Le DSA retient des règles de territorialité des services beaucoup plus efficaces que la directive SMA en matière de PPV. En matière territoriale, le DSA concerne donc plus de services que la directive SMA. Cette dernière limite son applicabilité en matière de PPV à l’existence d’un siège social ou d’une filiale établie au sein de l’UE[31]. Le DSA prévoit des conditions supplémentaires qui permettent d’imposer à un plus grand nombre de services de respecter le DSA. L’article 2 du DSA prévoit ainsi qu’il s’applique « aux services intermédiaires proposés aux destinataires du service dont le lieu d’établissement est situé dans l’Union ou qui sont situés dans l’Union, quel que soit le lieu d’établissement des fournisseurs de ces services intermédiaires ». Rappelons qu’un destinataire de service est défini comme « toute personne physique ou morale utilisant un service intermédiaire, notamment pour rechercher une information ou la rendre accessible »[32]. L’article 3 du DSA ajoute que proposer des services dans l’Union est défini comme le fait de « permettre aux personnes physiques ou morales dans un ou plusieurs États membres d’utiliser les services d’un fournisseur de services intermédiaires qui a un lien étroit avec l’Union ». Il ne suffit donc pas qu’un service soit accessible depuis un pays de l’UE pour que le DSA lui soit applicable ; encore faut-il que le service ait « un lien étroit avec l’Union » au sens de l’article 3 du DSA. Les premiers considérants du DSA précisent ce qu’il faut comprendre de cette formule. Ce lien peut être constaté par l’existence d’un établissement dans l’Union ce qui ne diffère pas de ce que prévoit la directive SMA en matière de PPV ou de ce que prévoit la directive relative à certains aspects juridiques des services de la société de l’information[33]. La suite des développements est beaucoup plus novatrice et dépasse considérablement ce que prévoit la directive SMA en matière de PPV. Le considérant n°8 du DSA précise que l’absence d’établissement dans l’Union n’exclut pas pour autant l’applicabilité du DSA à un service, sous réserve qu’il dispose d’un nombre « significatif » de destinataires au sein de l’UE ou qu’il procède au « ciblage » d’un ou plusieurs Etats membres. Il est alors précisé que : « Le ciblage des activités sur un ou plusieurs États membres peut être déterminé sur la base de toutes les circonstances pertinentes, et notamment de facteurs comme l’utilisation d’une langue ou d’une monnaie généralement utilisées dans cet ou ces États membres, la possibilité de commander des produits ou des services, ou l’utilisation d’un domaine de premier niveau pertinent. Le ciblage des activités sur un État membre pourrait également se déduire de la disponibilité d’une application dans la boutique d’applications nationale concernée, de la diffusion de publicités à l’échelle locale ou dans une langue utilisée dans cet État membre, ou de la gestion des relations avec la clientèle, par exemple de la fourniture d’un service clientèle dans une langue utilisée généralement dans cet État membre. Un lien étroit devrait également être présumé lorsqu’un fournisseur de services dirige ses activités vers un ou plusieurs États membres ». L’objectif de l’UE à travers ces dispositions est d’étendre au maximum l’application du DSA en évitant tout opportunisme des services dans l’installation de leur siège social ou de leurs filiales. En d’autres termes, quand bien même le gestionnaire d’un service prendrait soin de n’implanter aucun de ses établissements dans un pays de l’UE, cela ne le ferait pas échapper pour autant au respect du DSA[34] sous réserve qu’il cible un ou plusieurs pays de l’UE ou y dispose d’une basse significative d’utilisateurs[35]. Le DSA concilie subsidiairement une territorialité d’implantation du service et une territorialité de destination du service. Si la première condition (l’implantation) ne permet de conclure à l’applicabilité du DSA, la seconde condition (la destination) est alors appliquée. En matière de droit des PPV, la directive SMA ne concerne que les services ayant un lien organique avec un pays de l’UE. Ainsi une PPV établie au Canada qui n’a pas de filiale sur le territoire de l’UE échappe au droit des PPV issu de la directive SMA. En toute logique, il pourrait être opportun d’aligner les champs d’application de ces deux textes pour plus de cohérence.
- Un mode de désignation des services concernés plus efficace dans le DSA – La directive SMA prévoit qu’il appartient à chaque pays membre d’établir une liste des PPV qui relèvent de leur compétence[36]. Pour rappel, le DSA prévoit un mécanisme centralisé par le Commission européenne lorsque les services dépassent une certaine taille[37]. Ces très grandes plateformes en ligne ou très grand moteurs de recherche en ligne sont listés directement par l’UE ce qui permettra à la Commission européenne de gérer directement l’application du DSA à ces services. Ce processus évite les complexités d’une répartition des compétences par pays telle qu’appliquée par la directive SMA en matière de PPV. Pour les services plus modestes, le DSA prévoit comme la directive SMA que chaque pays détermine sur quel service il exerce ses compétences selon le lieu d’établissement du service[38].
Publicité
Ouvrage disponible uniquement sur Amazon Depuis plusieurs années, le droit de l’audiovisuel fait régulièrement la une de l’actualité : chronologie des médias, obligations de diffusion et de financement du cinéma français et européen imposées à Netflix, Disney+ ou Amazon Prime Vidéo, protection des mineurs contre la pornographie en ligne, déontologie des propos tenus sur certaines chaînes de télévision, attribution des fréquences TNT, place de l’ARCOM dans notre société, indépendance des médias audiovisuels… Le contenu du droit de l’audiovisuel intéresse car il paraît nécessaire à la bonne organisation de notre société de plus en plus numérisée où l’image animée occupe chaque jour un peu plus de place. L’objet de cet ouvrage est d’étudier les obligations qui s’imposent aux différents acteurs de l’audiovisuel, c’est-à-dire les chaînes de télévision, les services de vidéo à la demande, les plateformes de partage de vidéos et les distributeurs de services audiovisuels. On pense alors aux règles relatives à la programmation (information, sport, cinéma…) et à la publicité, aux règles relatives à la déontologie (protection des mineurs, interdiction de certains programmes, déontologie de l’information…) ou aux règles particulières relatives au financement de ces services. Le droit de l’audiovisuel français a beaucoup évolué depuis la dernière édition de cet ouvrage (2022) : les taxes spécifiques à l’audiovisuel ont été modifiées, l’ARCOM a élargi ses compétences, la lutte contre la pornographie en ligne accessible aux mineurs a été intensifiée, une nouvelle chronologie des médias a vu le jour en 2025 et, dans les faits, pour la première fois, un SMAD par abonnement peut diffuser des œuvres cinématographiques neuf mois après leur sortie en salles de cinéma. Dans le même temps, le financement de l’audiovisuel public a été pérennisé, la conception du pluralisme à l’antenne a été modifiée et les premières pistes de réforme de la directive SMA (prévue pour fin 2026) commencent à être discutées. L’objectif de ce livre est d’opérer une présentation du droit positif afin de comprendre les enjeux et l’utilité des différentes évolutions des dernières années. Avec cet ouvrage, les juristes de l’audiovisuel et plus généralement les professionnels de l’audiovisuel pourront ainsi appréhender dans son ensemble le droit positif de l’audiovisuel. Cet ouvrage prend également soin de traiter des possibles évolutions à venir (directive SMA, projets et propositions de loi, évolutions réglementaires) car le droit de l’audiovisuel est en perpétuel mouvement. |
Une régulation large des contenus et du fonctionnement des PPV.
Le DSA édicte dans la plupart des cas un encadrement juridique relativement proche mais parfois plus large et plus performant que celui posé par la directive SMA. Dans quelques situations, la directive SMA s’avère au contraire plus ambitieuse que le DSA.
La régulation des contenus publiés sur les PPV.
- Un contenu de règles à respecter beaucoup plus large dans le cadre du DSA que dans celui du droit des PPV issu de la directive SMA – La directive SMA énumère précisément les règles que les contenus publiés par les utilisateurs de PPV doivent respecter. Comme nous l’avons déjà mentionné, le droit des PPV ne vise que les contenus liés au terrorisme, à l’incitation à la haine ou à la violence, au respect de la dignité de la personne. La protection de l’enfance et de l’adolescence doit également être organisée de manière à ce que ces publics ne soit pas en contact avec des publications qui ne leur sont pas adaptées, notamment en matière de sexe ou de violence.
Pour sa part, le DSA ne détermine pas limitativement les domaines qui sont concernés par ce règlement. Le DSA vise largement les « contenus illicites ». L’article 3 définit le « contenu illicite » comme « toute information qui, en soi ou par rapport à une activité, y compris la vente de produits ou la fourniture de services, n’est pas conforme au droit de l’Union ou au droit d’un État membre qui est conforme au droit de l’Union, quel que soit l’objet précis ou la nature précise de ce droit ». Le considérant n° 12 du DSA précise qu’« Afin d’atteindre l’objectif consistant à garantir un environnement en ligne sûr, prévisible et fiable, il convient, aux fins du présent règlement, que la notion de «contenu illicite» corresponde de manière générale aux règles en vigueur dans l’environnement hors ligne. Il convient, en particulier, de donner une définition large de la notion de «contenu illicite» de façon à ce qu’elle couvre les informations relatives aux contenus, produits, services et activités illégaux. En particulier, cette notion devrait être comprise comme se référant à des informations, quelle que soit leur forme, qui, en vertu du droit applicable, sont soit elles-mêmes illicites, comme les discours haineux illégaux ou les contenus à caractère terroriste et les contenus discriminatoires illégaux, soit rendues illicites par les règles applicables en raison du fait qu’elles se rapportent à des activités illégales. » Le DSA peut en conséquence viser la violation de beaucoup plus de normes et de principes que la directive SMA en matière de PPV. A la différence du droit des PPV issu de la directive SMA, le DSA peut par exemple concerner la violation de règles de propriété intellectuelle ou de droit à l’image par un contenu, des règles relatives à la sécurité des produits ou la protection des utilisateurs contre la désinformation. Le DSA assure une régulation des contenus mis en ligne par les utilisateurs beaucoup plus large que celle mise en place par la directive SMA.
- Encadrement des communications commerciales – Le DSA définit en son article 3 les communications commerciales en renvoyant à la définition contenue à l’article 2 de la directive de 2000 sur le commerce électronique[39]. Constitue une communication commerciale « toute forme de communication destinée à promouvoir, directement ou indirectement, des biens, des services, ou l’image d’une entreprise, d’une organisation ou d’une personne ayant une activité commerciale, industrielle, artisanale ou exerçant une profession réglementée ». La formule est néanmoins peu employée dans le DSA (8 fois) qui lui préfère la notion plus restrictive de « publicité » utilisée 78 fois. Le DSA définit la publicité comme étant « les informations destinées à promouvoir le message d’une personne physique ou morale, qu’elles aient des visées commerciales ou non commerciales, et présentées par une plateforme en ligne sur son interface en ligne, moyennant rémunération, dans le but spécifique de promouvoir ces informations ». La directive SMA ne définit pour sa part que la notion de « communication commerciale audiovisuelle »[40]. Le DSA est donc plus large que la directive SMA car il ne se limite pas aux communications commerciales diffusées via l’image. Pour autant notre étude ne porte que sur les effets du DSA sur les services audiovisuels et ne vise que des communications commerciales audiovisuelles c’est-à-dire utilisant des images animées. Pour ce qui est de la distinction entre « publicités » et « communications commerciales » contenue dans le DSA, la définition donnée par le DSA à la publicité intègre la notion de rémunération, ce qui n’est pas le cas de la définition de communication commerciale. L’autopromotion par une entreprise n’est donc pas concernée par les mesures du DSA visant les publicités. Par contre, les mesures du DSA qui visent les communications commerciales concernent l’autopromotion tout comme les mesures de la directive SMA qui encadrent les communications commerciales audiovisuelles. Partant, on peut affirmer que le DSA couvre très peu les communications commerciales et donc les situations où l’auteur n’est pas rémunéré (autopromotion par exemple) et beaucoup plus les publicités, qui sont par définition rémunérées. La directive SMA vise pour sa part plus largement les publicités télévisées[41] et les communications commerciales audiovisuelles qu’elles soient rémunérées ou diffusées à des fins d’autopromotion.
Le DSA affirme dans son considérant n° 68 qu’il « complète l’application de la directive 2010/13/UE, qui impose des mesures pour permettre aux utilisateurs de déclarer les communications commerciales audiovisuelles figurant dans les vidéos qu’ils ont créées ». Le DSA compléterait donc le droit des communications commerciales audiovisuelles applicable aux PPV contenu dans la directive SMA. La directive SMA est pourtant déjà très complète sur la question. Il y est prévu que :
- les Etats membres doivent protéger les mineurs contre les contenus des communications commerciales audiovisuelles (ci-après CCA) qui ne leurs sont pas adaptées[42] ainsi que l’ensemble des publics contre les CCA comportant une incitation à la violence ou à la haine ou dont la diffusion est constitutive d’une infraction pénale au titre du droit de l’Union (terrorisme, pédopornographie, xénophobie et racisme)[43]. Cette régulation ne vise que les CCA créées par l’utilisateur.
- les Etats membres doivent veiller à ce que les utilisateurs des PPV soient informés « de façon claire »[44] de la présence d’une CCA lorsque cette dernière est créée par l’utilisateur. La CCA doit par ailleurs être clairement identifiable quel que soit son auteur[45]. La directive SMA prévoit également que les Etats membres veillent à ce que les CCA (quel que soit son auteur) ne soient pas subliminales[46] et qu’elles ne contiennent pas d’atteinte à la dignité humaine, ne comportent pas de discrimination fondée sur le sexe, l’origine raciale ou ethnique, la nationalité, la religion ou les convictions, un handicap, l’âge ou l’orientation sexuelle, ni ne promeuvent une telle discrimination, n’encouragent pas des comportements préjudiciables à la santé ou à la sécurité, n’encouragent pas des comportements gravement préjudiciables à la protection de l’environnement. Est interdit toute forme de communication commerciale audiovisuelle pour les cigarettes et les autres produits du tabac, ainsi que pour les cigarettes électroniques et les flacons de recharge ainsi que les communications commerciales audiovisuelles pour les médicaments et les traitements médicaux qui sont disponibles uniquement sur ordonnance dans l’État membre de la compétence duquel relève le fournisseur de services de médias. Il est également prévu que les communications commerciales audiovisuelles relatives à des boissons alcooliques ne s’adressent pas expressément aux mineurs et n’encouragent pas la consommation immodérée de ces boissons. Enfin, les CCA ne doivent pas causer de préjudice physique, mental ou moral aux mineurs, dès lors, elles n’incitent pas directement les mineurs à l’achat ou à la location d’un produit ou d’un service en exploitant leur inexpérience ou leur crédulité, n’incitent pas directement les mineurs à persuader leurs parents ou des tiers d’acheter les produits ou les services faisant l’objet de la publicité, n’exploitent pas la confiance particulière que les mineurs ont dans leurs parents, leurs enseignants ou d’autres personnes, ou ne présentent pas sans motif des mineurs en situation dangereuse[47].
- les Etats membres encouragent l’adoption de codes de conduite en matière de régulation du contenu des CCA notamment en matière d’exposition des enfants aux CCA relatives aux denrées alimentaires et aux boissons contenant des nutriments ou des substances ayant un effet nutritionnel ou physiologique, notamment les matières grasses, les acides gras trans, le sel ou sodium et les sucres, dont la présence en quantités excessives dans le régime alimentaire global n’est pas recommandée[48] ainsi que dans tout autre secteur visant à la régulation des CCA des PPV[49].
- les Etats membres procèdent à la mise en place de « condition de services », d’outils permettant aux utilisateurs de déclarer la présence d’une CCA, de mécanismes de signalement pour les utilisateurs des PPV, de systèmes de vérification d’âge, de méthode de classification des contenus selon les âges, de mécanismes de contrôle parental, de procédures de résolution des réclamations, des mesures d’éducation aux médias et des mécanismes de recours extrajudiciaires et judicaires.
- les États membres peuvent imposer aux fournisseurs de PPV des mesures plus détaillées ou plus strictes que ces mesures[50] ce que le DSA exclut[51]. On notera que l’ensemble de ces mesures techniques peut être mis en place en matière de CCA – selon ce qui est approprié pour reprendre les termes de la directive – mais également en matière de protection des mineurs et de régulation des contenus (que le contenu soit une CCA ou non)[52].
En matière de publicité, le DSA impose aux plateformes en ligne[53] de veiller à ce que chaque publicité présentée sur leur interface soit identifiée comme telle (art. 26) au besoin en suivant des normes volontaires établies par les organismes de normalisation européens et internationaux pertinents mentionnées à l’article 44 du DSA. On retrouve les mêmes obligations dans la directive SMA pour les CCA diffusées sur les PPV[54] si ce n’est que la directive ne fait pas référence aux normes volontaires évoquées par le DSA. En outre, le DSA fait référence à un « marquage bien visible »[55] devant être utilisé pour signaler la présence d’une publicité. A cet effet, le DSA prévoit, comme la directive SMA, que des outils permettant aux utilisateurs de déclarer les publicités doivent être mis en place par les plateformes[56].
Le DSA prévoit en outre un certain nombre de mesures qui ne figurent pas dans la directive SMA. Il est précisé à l’article 26 du DSA que pour chaque publicité présentée, le destinataire doit pouvoir identifier la personne physique ou morale pour le compte de laquelle la publicité est présentée ; identifier la personne physique ou morale qui a payé pour la publicité, si cette personne est différente de la personne physique ou morale visée plus haut et déterminer les informations utiles, qui doivent être directement et facilement accessibles à partir de la publicité, concernant les principaux paramètres utilisés pour déterminer le destinataire auquel la publicité est présentée et, le cas échéant, la manière dont ces paramètres peuvent être modifiés[57]. Sur ces points, le DSA va plus loin que la directive SMA.
Le DSA interdit aux plateformes de présenter des publicités qui reposent sur du profilage lié à l’origine raciale ou ethnique, les opinions politiques, les convictions religieuses ou philosophiques ou l’appartenance syndicale, ainsi que le traitement des données génétiques, des données biométriques aux fins d’identifier une personne physique de manière unique, des données concernant la santé ou des données concernant la vie sexuelle ou l’orientation sexuelle d’une personne physique[58]. La directive SMA ne mentionne pas cette interdiction mais cette dernière nous semble découler de toute façon de l’article 9 du règlement RGPD[59] qui interdit le traitement des données à caractère personnel qui révèlent ces éléments. Cet article prévoit néanmoins un certain nombre d’exclusions (consentement des personnes concernées, caractère public des informations…) qui ne sont pas visées par le DSA. L’article 28 du DSA interdit le profilage en matière de publicité lorsque le destinataire est vraisemblablement un mineur. L’interdiction figure également dans le droit des PPV issu de la directive SMA[60].
Dans un souci de transparence renforcé, le DSA prévoit que les très grandes plateformes en ligne, et donc plusieurs PPV, ont au surplus l’obligation de mettre à disposition du public un registre[61] contenant la liste des publicités ainsi que diverses informations sur ces dernières listées à l’article 39[62]. Cette transparence en matière de publicité en ligne peut également être renforcée au moyen de codes de conduite élaborés à l’échelle de l’Union. L’article 46 précise que la Commission encourage la mise en place de ces codes d’ici le 18 février 2025 pour une application pour le 18 aout 2025. Sans préciser de date, ni les secteurs concernés (la publicité ou les CCA ne sont pas de manière générale particulièrement visées), la directive SMA invite également à ce que des codes de conduite soient élaborés à l’échelle de l’Union pour les PPV[63]. Comme nous l’avons déjà précisé, la directive SMA vise expressément la mise en place de codes de conduite (qui sont encouragés par les Etats membres) pour limiter l’exposition des enfants à certains aliments et boissons qui ne leur sont pas conseillés[64]. Sur ce dernier point la directive SMA est plus précise que le DSA.
Enfin, le DSA prévoit également que les très grandes plateformes en ligne et les très grands moteurs de recherche en ligne doivent procéder à des évaluations des risques systémiques auxquels peuvent contribuer leurs services[65]. A cette occasion, les systèmes de sélection et de présentation de la publicité doivent être analysés[66] et en cas de risque recensé, les services concernés doivent atténuer les risques en procédant à une adaptation de leurs systèmes de publicité et à l’adoption de mesures ciblées destinées à limiter la présentation de publicités, ou à en adapter la présentation, en association avec le service fourni[67]. En raison de la taille de leur audience et par conséquent de leur influence sur la population, ces très grands services doivent être particulièrement vigilants en matière de diffusion de contenus y compris en matière de publicité. Ces exigences sont plus élevées que celles imposées par la directive SMA aux plateformes de partage de vidéos.
- Protection des mineurs – La directive SMA et le DSA organisent tous deux une protection des mineurs contre les contenus qui ne leur sont pas adaptés. L’article 28ter de la directive SMA impose aux États membres de veiller à ce que les fournisseurs de plateformes de partage de vidéos relevant de leur compétence prennent les mesures « appropriées » pour protéger notamment les mineurs ou le grand public des contenus susceptibles de nuire à l’épanouissement mental, physique ou moral des mineurs[68]. L’article 28ter renvoie à l’article 6 bis paragraphe 1 de la directive qui prévoit que « les États membres prennent les mesures appropriées pour garantir que les services de médias audiovisuels fournis par des fournisseurs de services de médias relevant de leur compétence qui pourraient nuire à l’épanouissement physique, mental ou moral des mineurs ne soient mis à disposition que dans des conditions telles que les mineurs ne puissent normalement pas les entendre ni les voir. Ces mesures peuvent comprendre le choix de l’heure de l’émission, l’utilisation d’outils permettant de vérifier l’âge ou d’autres mesures techniques. Elles sont proportionnées au préjudice que pourrait causer le programme. Les contenus les plus préjudiciables, tels que la pornographie et la violence gratuite, font l’objet des mesures les plus strictes ». L’article 28ter précise en outre que ces mesures doivent être « réalisables et proportionnées compte tenu de la taille du service de plateforme de partage de vidéos et de la nature du service fourni ». Chaque État membre doit donc mettre en place des mesures « réalisables et proportionnées » en matière de protection des mineurs notamment contre les contenus contenant du sexe ou de la violence[69]. La directive demande notamment à ce que soient mises en place des mesures de signalement par les utilisateurs des contenus inappropriés ; des mesures de vérification d’âge ; des mesures de classification des contenus ; des systèmes de contrôle parental ; des mesures d’éducation aux médias et des mesures de résolution des réclamations[70]. Il est également prévu que les Etats membres peuvent mettre en place des codes de conduite pour assurer la protection des mineurs[71].
Le DSA prévoit un encadrement juridique assez proche de celui mis en place par la directive SMA en matière de PPV. Le considérant n°71 du DSA précise que « la protection des mineurs est un objectif stratégique important de l’Union ». Le DSA impose aux plateformes accessibles aux mineurs d’assurer la protection de la « vie privée », de la « sûreté » et de la « sécurité » des mineurs[72]. Le considérant n° 71 du DSA précise que ces mesures de protection sont assurées au moyen de mesures « appropriées et proportionnées » pour protéger les mineurs « par exemple en concevant leurs interfaces en ligne ou des parties de celles-ci avec le plus haut niveau de protection de la vie privée, de sécurité et de sûreté des mineurs par défaut, s’il y a lieu, ou en adoptant des normes de protection des mineurs, ou en participant à des codes de conduite[73] pour la protection des mineurs ». Le DSA prend en considération les plateformes en ligne « accessibles aux mineurs lorsque ses conditions générales permettent aux mineurs d’utiliser le service, lorsque son service s’adresse aux mineurs ou est utilisé de manière prédominante par des mineurs, ou lorsque le fournisseur sait par ailleurs que certains des destinataires de son service sont des mineurs »[74]. La directive SMA n’établit pas une telle catégorie pour les PPV qui doivent toutes mettre en place une protection des mineurs. L’article 28 du DSA reprend cette notion de plateformes accessibles aux mineurs – celles qui ne le sont pas ne sont donc pas concernées – pour leur imposer plus vaguement et plus largement que la directive SMA d’assurer la « sûreté et la sécurité » des mineurs. On notera que l’article 28 du DSA vise également la protection de la vie privée des mineurs ce qui n’est pas formulé de façon explicite par la directive SMA[75].L’article 28 du DSA renvoie à la Commission, après consultation du Comité européen des services numériques[76], le soin de publier des lignes directrices pour préciser ces exigences. Ces lignes directrices ont été publiées le 14 juillet 2025[77] par la Commission :
| Le contenu des lignes directrices relatives à la protection des mineurs :
Deux mois après la publication d’un projet de lignes directrices soumis à avis, la Commission publie les lignes directrices finales visant à la protection des mineurs dans le cadre du DSA. Ces lignes directrices viennent préciser l’application de l’article 28 du DSA qui prévoit de façon rapide que : « Les fournisseurs de plateformes en ligne accessibles aux mineurs mettent en place des mesures appropriées et proportionnées pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs sur leur service ». Si les lignes directrices n’ont pas d’effet obligatoire pour les personnes qu’elles visent, elles n’en restent pas moins un document de référence qui inspirera les pratiques des autorités compétentes pour appliquer le DSA et des plateformes en ligne qui relèvent de ce texte. Ces lignes directrices devraient donc à l’avenir modeler les politiques des plateformes en ligne vis-à-vis des mineurs, notamment les plateformes de partage de vidéos et les réseaux sociaux. Les principales recommandations des lignes directrices n’ont pas été modifiées par rapport au projet publié il y a deux mois :
Les lignes directrices insistent enfin sur la nécessité pour les plateformes d’assurer un suivi et une évaluation réguliers des éléments permettant d’assurer la protection des mineurs. La Commission réexaminera ces lignes directrices dès que cela sera nécessaire et au plus tard après une période de douze mois après leur publication. |
Les très grandes plateformes en ligne (TGPL) et de très grands moteurs de recherche en ligne (TGMRL) se voient imposer des obligations supplémentaires. L’évaluation des risques systémiques qui doit être mise en place par ces acteurs doit intégrer la protection des mineurs[83] et les systèmes de modération des contenus[84]. Le DSA prévoit que l’atténuation de ces risques systémiques peut nécessiter « l’adoption de mesures ciblées visant à protéger les droits de l’enfant, y compris la vérification de l’âge et des outils de contrôle parental, ou des outils permettant d’aider les mineurs à signaler les abus ou à obtenir un soutien »[85]. L’article 44 du DSA prévoit enfin que la Commission consulte le Comité et soutient et encourage le développement ainsi que la mise en œuvre de normes volontaires établies par les organismes de normalisation européens et internationaux pertinents au sujet des « mesures ciblées destinées à protéger les mineurs en ligne »[86]. Un standard commun de protection des mineurs contre les contenus qui ne leur sont pas adaptés devrait en conséquence voir le jour. On peut penser à des logos communs visant soit à prévenir que tel ou tel contenu est déconseillé aux mineurs (plusieurs plateformes demandent déjà aux utilisateurs si le contenu qu’ils souhaitent mettre en ligne est adapté aux mineurs) ou à certains âges[87] voire la mise en place de logos thématiques visant à prévenir que le contenu contient du sexe, de la violence, de la drogue[88]… Avant même la publication de mesures complémentaires, la Commission avait déjà adressé il y a quelques mois une demande d’information dans le cadre du DSA pour interroger plusieurs plateformes pornographiques sur les mesures mises en place pour contrôler l’âge des mineurs ainsi que sur les mesures prises pour évaluer et atténuer avec diligence les risques liés à la protection des mineurs en ligne[89]. La Commission a ensuite ouvert quatre enquêtes visant quatre très grandes plateformes en ligne pornographiques (Pornhub, Stripchat, XNXX et XVideos)[90]. La Commission a enfin conclu à titre préliminaire[91] que ces plateformes ne respectaient pas la mise en place :
- des mesures appropriées et proportionnées pour garantir un niveau élevé de respect de la vie privée, de sûreté et de sécurité pour les mineurs, en particulier au moyen d’outils de vérification de l’âge visant à protéger les mineurs contre les contenus destinés aux adultes.
- de mesures d’évaluation des risques et d’atténuation de tout effet négatif sur les droits de l’enfant et le bien-être mental et physique des utilisateurs permettant d’empêcher les mineurs d’accéder à des contenus pour adultes, notamment au moyen d’outils appropriés de vérification de l’âge.
Au-delà de la Commission, le communiqué de presse publié le 27 mai 2025 précise également que les États membres, réunis au sein du Comité européen des services numériques, mènent une action coordonnée contre les petites plateformes pornographiques. L’action de la Commission sur le fondement du DSA se limite en effet aux très grandes plateformes en ligne. Dans les deux cas, ces procédures peuvent aboutir à des injonctions de mise en place de mesures appropriées. Des sanctions pourront être prononcées si ces mesures ne sont pas mises en place. Ces actions européennes viennent compléter l’action (hors DSA) de différents Etats membres visant à restreindre l’accès des mineurs à la pornographie en ligne. La France, l’Italie et l’Allemagne avancent ainsi également sur le sujet.
Avant la publication des lignes directives[92] prises pour application de l’article 28 du DSA, la directive SMA paraissait plus complète et plus détaillée sur la protection des mineurs contre les contenus qui ne leur sont pas adaptés. Le document conséquent (65 pages) publié en juillet 2025 par la Commission change la donne. En outre, le fait que le DSA utilise l’expression générale de « sûreté et sécurité des mineurs » laisse apparaître que le DSA ne vise pas que la protection contre les contenus non adaptés aux mineurs. D’autres mesures qui ne figurent pas dans la directive SMA sont ainsi assimilées à la « sûreté et sécurité des mineurs » par les lignes directrices. On pense par exemple aux limites temporelles d’utilisation des PPV pour les mineurs qui permettent de lutter contre le caractère addictif de certaines plateformes[93]. On peut également penser aux « défis » et autres « challenges » mis en place par certains utilisateurs de réseaux sociaux qui invitent les utilisateurs (souvent mineurs et crédules) à poster des vidéos reproduisant une pratique dangereuse[94]. On notera également que l’article 25 du DSA prévoit que la conception et l’organisation des interfaces des plateformes ne doivent pas « tromper ou manipuler » les destinataires du service (tous les utilisateurs et pas simplement les mineurs sont ainsi protégés) de manière à « altérer ou entraver substantiellement la capacité des destinataires à prendre des décisions libres et non éclairées ». Cet article qui devrait donner lieu à ses propres lignes directrices publiées par la Commission, pourrait être utile pour protéger les mineurs contre le phénomène des « dark patterns »[95] (design trompeur) mis en place sur certaines plateformes choyées par les mineurs. On notera que les lignes directrices prises pour l’application de l’article 28 du DSA publiées en juillet 2025[96] envisagent également l’organisation des interfaces des plateformes en vue de protéger les mineurs[97]. Le DSA insiste également plusieurs fois sur la nécessité pour les plateformes de mettre en place des environnements adaptés aux mineurs en proposant par exemple des conditions générales qui leur sont compréhensibles[98] et des mécanismes de signalement aisément utilisables par les mineurs[99]. Au surplus, l’efficacité du DSA pourrait (une fois les mesures complémentaires élaborées) être supérieure à ce que prévoit la directive SMA dans la mesure où la directive nécessite une transposition dans chaque Etat membre[100] alors que le DSA n’en nécessite pas[101]. De plus, les TGPL et TGMRL sont régulés directement par l’UE à la différence de la directive SMA qui prévoit une régulation par Etat membre qui semble plus laborieuse à mettre en place. En dehors des très grands services, la régulation s’opère néanmoins par Etat comme pour la directive SMA.
La régulation du fonctionnement des PPV.
Le DSA et la directive SMA organisent tous deux une régulation des PPV. Si d’une manière générale le DSA est plus complet que la directive, on constate parfois que la directive prévoit des exigences plus audacieuses.
- Régulation des algorithmes – Le DSA encadre le fonctionnement des algorithmes utilisés par les services intermédiaires. Ce secteur n’est pas encadré par le droit des PPV issu de la directive SMA. Le DSA impose aux gestionnaires de PPV visés par ce règlement de publier dans leurs conditions générales les informations relatives à la modération des contenus par algorithme[102]. Ces conditions générales doivent également établir dans « un langage simple et compréhensible » les principaux paramètres utilisés dans leurs systèmes de recommandation ainsi que les options dont disposent les destinataires du service pour modifier ou influencer ces paramètres[103]. On notera que cette obligation s’applique à tous les services visés par le DSA et pas simplement aux très grands services.
Les TGPL et TGMRL doivent pour leur part également proposer un système de recommandation alternatif qui ne repose pas sur du profilage[104] au sens de l’article 4 point 4 du RGPD[105]. En matière de risques systémiques[106], les TGPL et TGMRL doivent prendre en compte le fonctionnement de leur algorithme pour évaluer ces risques et déterminer comment ce dernier pourrait influencer ces risques[107]. Les algorithmes utilisés notamment lors des recommandations peuvent alors être modifiés – le DSA mentionne des « mesures d’atténuation raisonnables » – en cas de risques systématiques[108]. En cas de crise, la Commission peut prendre une décision exigeant notamment qu’un fournisseur de TGPL ou de TGMRL entreprenne ces mesures d’atténuation raisonnables en matière d’algorithme. L’article 40 du DSA prévoit également que les TGPL et TGMRL doivent fournir un certain nombre de données (sur demande de la Commission ou du Coordinateur pour les services numériques de l’Etat membre d’établissement du service) pour « contrôler et évaluer » le respect du DSA[109]. L’accès aux algorithmes peut aussi être exigé lors d’inspections de la Commission[110]. A ce titre, les services concernés doivent expliquer « la conception, la logique, le fonctionnement et la procédure de test de leurs systèmes algorithmiques y compris leurs systèmes de recommandation »[111]. Ces informations peuvent également être communiquées à des chercheurs agréés au sens de l’article 40, §8 du DSA[112]. L’ensemble de ces exigences sur les algorithmes des PPV devrait permettre aux autorités compétentes de prendre des mesures pour corriger certains abus de ces services tout en limitant le caractère viral de certaines vidéos problématiques (la désinformation par exemple). Pour autant seules les très grandes plateformes sont principalement concernées par ces mesures. Les plateformes plus modestes (comme Twitch ou Dailymotion par exemple) ne sont pas concernées par ces dernières dispositions.
- Accessibilité des services – En matière d’accessibilité des services aux personnes handicapées, la directive SMA est plus détaillée que le DSA. Ce dernier se contente de renvoyer à des codes de conduite dont l’adoption est « encouragée » par la Commission[113]. L’article 7 de la directive SMA impose des objectifs contraignants aux Etat membres en matière d’accessibilité des services de médias audiovisuels et donc des PPV. Un rapport sur la question doit être remis à la Commission tous les trois ans ; la mise en place de plans d’actions par les services audiovisuels est encouragée par les Etats membres et un point de contact en ligne unique doit être mis en place par chaque Etat membre pour pouvoir fournir des informations ou des réclamations sur la question. La directive SMA est ainsi plus offensive et exigeante que le DSA en matière d’accessibilité des services audiovisuels[114].
- Conception générale – D’une manière générale, l’ensemble du DSA est beaucoup plus développé et raffiné que les quelques dispositions prévues par la directive SMA en matière de régulation du fonctionnement des PPV. Le DSA organise plusieurs dispositifs qui ne figurent pas dans la directive SMA. Sans être exhaustif, on peut par exemple mentionner l’encadrement des périodes dites de « crise » par l’article 36 du DSA où sont prévues des mesures spécifiques pouvant être imposées par la Commission aux services les plus importants. De la même façon, l’article 17 du DSA prévoit de façon extrêmement détaillée sur une trentaine de lignes les obligations incombant à un gestionnaire de services lorsqu’il décide d’agir de façon restrictive contre un contenu problématique. La directive SMA ne détaille pas, dans cette même situation, les obligations des gestionnaires de PPV et se contente de mentionner de façon lapidaire la mise en place de « procédures transparentes, faciles à utiliser et efficaces pour le traitement et la résolution des réclamations des utilisateurs »[115]. Certaines transpositions nationales de la directive sont probablement plus détaillées. Ce n’est pas le cas de la transposition française[116] qui renvoie à l’ARCOM le soin de fixer le détail de ces procédures. A notre connaissance l’ARCOM n’a jusqu’ici pas détaillé ces exigences. Signaleurs de confiance[117], système interne de traitement des réclamations[118], règlement extrajudiciaire des litiges[119], obligations de transparence[120], contrôleur de la conformité pour TGPL[121], nécessaire évaluation des risques systémiques notamment lors du lancement de nouvelles fonctionnalités[122], interdiction des interfaces en ligne organisées « de façon à tromper ou à manipuler les destinataires de leur service ou de toute autre façon propre à altérer ou à entraver substantiellement la capacité des destinataires de leur service à prendre des décisions libres et éclairées »[123] : il serait trop long de détailler toutes les précisons contenues dans le DSA qui ne figurent pas dans le droit des PPV issu de la directive SMA.
L’efficacité des mesures de contrôle et de sanction des PPV organisées par le DSA.
Le DSA organise des mesures de contrôle et des sanctions qui semblent très efficaces[124]. La directive SMA ne prévoit pas de sanction concrète en cas de non respect des mesures encadrant l’activité des PPV. La directive SMA précise que les Etats membres « veillent » à ce que les PPV appliquent ou respectent les dispositions de la directive sans jamais mentionner qu’une sanction doit intervenir en cas de non respect par les PPV[125]. Les transpositions étatiques doivent donc être réalisées et les Etats qui ne transposeraient pas les mesures de la directive pourraient être sanctionnés pour manquement par la CJUE[126].
La directive prévoit qu’en matière de PPV, les plateformes doivent mettre en place des systèmes de traitement des réclamations. Des mécanismes de recours judicaires et extrajudiciaires doivent également être mis en place selon la directive mais dans tous les cas c’est aux utilisateurs d’agir. Il n’est pas directement prévu qu’une instance publique puisse agir en cas de non respect des mesures préconisées par les transpositions de la directive SMA en matière de PPV. Les Etats peuvent de leur côté prévoir dans leurs textes nationaux de transposition une réaction des pouvoirs publics en cas d’inaction des PPV mais, à titre d’exemple, la France ne l’a pas fait. La loi de 1986 relative à l’audiovisuel[127] qui transpose le droit des PPV issu de la directive SMA ne prévoit pas que l’ARCOM puisse sanctionner une PPV qui relève de sa compétence en cas de non respect du droit des PPV. Seuls les éditeurs de services (radio, chaînes TV et SMAD), les distributeurs et les opérateurs satellitaires peuvent être sanctionnés ou visés par une mise en garde ou une mise en demeure de l’ARCOM[128]. Les PPV qui, rappelons-le, ne sont pas, par définition[129], des éditeurs ne sont pas concernées.
Le DSA donne pour sa part la possibilité à l’Union Européenne et aux Etats membres de sanctionner son inapplication. Les services qui relèvent de la responsabilité des Etats membres[130] peuvent se voir enjoindre par ces derniers[131] d’agir contre les contenus illicites[132] ou de fournir des informations[133]. L’article 52 du DSA prévoit explicitement que chaque Etat membre « détermine le régime des sanctions applicables aux infractions au présent règlement ». Il y est précisé que les sanctions doivent être « effectives, proportionnées et dissuasives ». Plus précisément, l’article 52 dispose que « le montant maximal des amendes qui peuvent être imposées pour non-respect d’une obligation établie dans le présent règlement représente 6 % du chiffre d’affaires mondial annuel du fournisseur de services intermédiaires concerné réalisé au cours de l’exercice précédent. Les États membres veillent à ce que le montant maximal de l’amende qui peut être imposée pour la fourniture d’informations inexactes, incomplètes ou trompeuses, l’absence de réponse ou la non-rectification d’informations inexactes, incomplètes ou trompeuses et le manquement à l’obligation de se soumettre à une inspection représente 1 % des revenus ou du chiffre d’affaires mondial annuels du fournisseur de services intermédiaires concerné ou de la personne concernée de l’exercice précédent. » L’article 54 du DSA prévoit également que « les destinataires du service ont le droit de demander réparation aux fournisseurs de services intermédiaires, conformément au droit de l’Union et au droit national, pour les dommages ou pertes subis en raison d’une violation par lesdits fournisseurs des obligations qui leur incombent au titre du présent règlement ».
Les TGPL et TGMRL relèvent pour leur part de la Commission Européenne (v. tableau récapitulatif ci-dessous). A l’ère du numérique où les services internet ne s’arrêtent pas de fonctionner aux frontières des Etats, une régulation centralisée sur l’ensemble du territoire de l’Union par un régulateur unique paraît bien plus efficace qu’une régulation pays par pays comme en matière de régulation des PPV par la directive SMA. Ajoutons que la voix de l’Union européenne, c’est-à-dire de 27 Etats et 450 millions d’habitants, porte plus face aux géants du numérique que la voix d’un seul Etat membre. Lorsque les services ne rentrent pas dans la catégorie des très grands services au sens du DSA, les Etats membre redeviennent par contre compétents comme en matière de droit des PPV provenant de la directive SMA[134]. Le DSA attribue dans ce cadre des pouvoirs d’enquête à la Commission qui peuvent être exercés y compris à la propre initiative de l’institution. La Commission peut en cas d’infraction et d’urgence prononcer des mesures provisoires[135]. L’article 71 du DSA prévoit que des engagements peuvent être pris par les services les plus importants après que la Commission a constaté l’irrespect du DSA par un service[136]. Ces engagements pris à l’initiative du service visé peuvent être rendus contraignants par la Commission. En cas de non respect des mesures prévues par le DSA, des engagements ou des mesures provisoires, la Commission peut ordonner au service concerné de prendre les mesures nécessaires en vue de se mettre en conformité avec le DSA[137]. Cette décision peut être accompagnée, selon les cas, d’amendes jusqu’à concurrence de 6 % du chiffre d’affaires mondial annuel réalisé au cours de l’exercice précédent[138] ou de 1 % des revenus ou du chiffre d’affaires mondial annuels de l’exercice précédent[139]. Suite à une telle décision, un processus de surveillance renforcé du service est mis en place[140]. Enfin, l’article 82 prévoit que lorsque tous ces pouvoirs pour parvenir à la cessation d’une infraction au DSA ont été épuisés, que l’infraction persiste et entraîne un préjudice grave ne pouvant pas être évité via l’exercice d’autres pouvoirs prévus par le droit de l’Union ou le droit national, la Commission (ou un Etat membre pour les services qui relèvent de leur compétence) peut demander à ce que soit prononcée une restriction temporaire d’accès à l’encontre du service concerné[141].
| DSA, de l’enquête à la sanction : quelle procédure ?
Procédure pour la Commission européenne (TGPL, TGMRL) :
La commission a précisé certains points de procédure pour ces différentes étapes dans un règlement d’exécution daté du 21 juin 2023. ———————————————————————————- Pour ce qui est des Etats membres et des services qui relèvent de leur compétence (les services qui ne sont pas des très grands services), le DSA prévoit en son article 52 que les Etats membres déterminent le régime des sanctions applicables aux infractions au présent règlement. Les sanctions doivent être effectives, proportionnées et dissuasives. Le montant maximal des amendes qui peuvent être imposées pour non-respect d’une obligation établie dans le DSA représente 6 % du chiffre d’affaires mondial annuel du fournisseur de services intermédiaires concerné réalisé au cours de l’exercice précédent. |
L’organisation du contrôle du respect du DSA par les pouvoirs publics est extrêmement cadrée là où le contrôle du respect des mesures prévues par la directive SMA au sujet des PPV est inexistant. Les plateformes de partage de vidéos ont en conséquence tout intérêt à se mettre rapidement en accord avec les dispositions du DSA afin d’éviter les sanctions. Au contraire, le droit des PPV issu de la directive SMA peine pour le moment à se mettre en place ce qui ne motive pas ses destinataires à se mettre en conformité avec les règles prévues.
Le DSA comme source d’inspiration pour le droit applicable aux chaînes de télévision et aux SMAD.
Comme nous l’avons déjà exposé, le DSA ne s’applique pas aux chaînes de télévision et aux services de vidéo à la demande (SMAD). En matière d’audiovisuel, son application se limite aux plateformes de partage de vidéos. Pour autant, le DSA, de part son caractère novateur, peut constituer une source d’inspiration pour l’évolution des règles encadrant les chaînes de télévision et les SMAD. Sur plusieurs points, le DSA pourrait insuffler de nouvelles perspectives au droit de l’audiovisuel et notamment à la directive SMA.
Vers des modalités de contrôle et de sanction des chaînes et des SMAD plus efficaces.
Nous l’avons vu, le DSA organise un contrôle des PPV souvent plus efficace que celui mis en place par la directive SMA. La compétence élargie de l’UE et des Etats membres pour contrôler les services qui y sont disponibles (et pas seulement les services qui y sont établis) constitue une réelle source d’inspiration pour la directive SMA. Au surplus, les sanctions organisées par le DSA et notamment la restriction d’accès aux services les plus problématiques paraissent dissuasives. En réalité, la question de la territorialité et celle des sanctions sont profondément liées. Rendre les Etats compétents (voire l’UE) pour réguler tous les services qui émettent sur leur territoire est envisageable mais encore faut-il que cela ait une utilité. Les PPV, les chaînes de télévision et les services de média audiovisuel à la demande (SMAD) ne sont pas accessibles de la même façon. Les systèmes juridiques encadrant ces services comportent en conséquence nécessairement des différences.
L’extension de la compétence territoriale des Etats pour réguler les SMAD et les chaînes qui y sont disponibles.
Pour le moment la directive SMA ne donne pas compétence aux Etats pour réguler les services qui y émettent mais pour réguler les services qui y sont établis. L’applicabilité territoriale de la directive SMA aux éditeurs de services (chaînes TV et SMAD) est beaucoup plus limitée que celle du DSA. Là encore la directive impose l’existence d’un siège social de l’éditeur implanté dans un Etat membre de l’UE ou, à défaut, l’utilisation d’un satellite situé dans un Etat membre ou d’une capacité satellitaire relevant d’un Etat membre[142]. Une chaîne ou un SMAD qui prend soin de ne pas respecter ces conditions – ce qui n’est pas très compliqué à l’ère du numérique – échappe au contenu de la directive SMA et de ses transpositions[143] même si le service concerné est en Français et cible explicitement la France[144]. La régulation d’un service de ce type s’avère en conséquence particulièrement compliquée pour l’UE et ses Etats membres.
Si la directive SMA pose des règles communes efficaces à transposer dans chaque Etat (v. par exemple les règles applicables en matière de communication commerciales[145]), il n’en reste pas moins qu’il est souvent fâcheux de constater qu’un service audiovisuel disponible dans un Etat membre ne se voit pas régulé par cet état ni appliquer le droit de cet Etat mais bien le droit de son pays d’établissement, c’est-à-dire, dans la plupart des cas[146], du pays où son siège social est installé[147]. En dehors des obligations d’investissement[148], la directive SMA en reste à une régulation par pays y compris pour les géants du numérique (Netflix, Apple TV+, Disney+, Amazon Prime Vidéo, Max…) qui proposent leurs services sur l’ensemble du territoire de l’Union. Le considérant n° 33 de la directive originelle de 2010[149] précise ainsi que « Le principe du pays d’origine devrait être vu comme au cœur de la présente directive, compte tenu de son importance primordiale pour la création d’un marché intérieur. Ce principe devrait être appliqué à tous les services de médias audiovisuels afin de garantir aux fournisseurs de services de médias la sécurité juridique indispensable à la mise en place de nouveaux modèles d’activité et au déploiement de ces services. Il est également essentiel pour garantir la libre circulation de l’information et des programmes audiovisuels dans le marché intérieur. » Il est ajouté aux considérants suivants qu’« Afin de promouvoir un secteur audiovisuel européen solide, compétitif et intégré et de favoriser le pluralisme des médias à travers toute l’Union, un fournisseur de services de médias ne devrait relever de la compétence que d’un seul État membre. L’obligation de l’État membre d’origine de s’assurer que des émissions sont conformes à la législation nationale telle que coordonnée par la présente directive est suffisante, au regard du droit de l’Union, pour garantir la libre circulation des émissions sans qu’un second contrôle pour les mêmes motifs soit nécessaire dans les États membres de réception. »
Le DSA nous montrera peut-être[150] que la régulation des géants du numérique est plus efficace au stade européen qu’au stade étatique. Une régulation centralisée à l’échelle de l’Union pour les services disponibles sur une grande partie du territoire de l’UE serait néanmoins difficilement envisageable car, rappelons-le, c’est une directive qui encadre ces services ce qui implique 27 transpositions différentes[151]. Il semble difficile de demander à un régulateur européen[152] d’appliquer le droit de tel ou tel pays. La solution serait de transformer la directive SMA en règlement qui serait en conséquence directement applicable dans chaque pays membre sans nécessité de transposition. Dans ce cadre, une régulation directe de l’UE pour les services présents dans la plupart des pays de l’Union pourrait être mise en place comme dans le cadre du DSA. Cette solution ne semble pas à l’ordre du jour et constituerait une révolution copernicienne de l’organisation des activités audiovisuelles au sein de l’UE.
La solution la plus efficace et la plus réaliste en matière de SMAD et de chaînes de télévision serait probablement d’élargir les compétences des Etats sur le fondement de la disponibilité du service et non de son établissement : le droit de l’audiovisuel applicable serait, quand cela est approprié[153], celui du pays où le service est disponible[154] et non celui de son établissement. Ce choix a déjà été fait en matière de taxation des services de vidéo à la demande en France (SMAD, vidéo en ligne) qui ne dépend pas de la directive SMA[155] et au sein de cette directive pour les obligations d’investissement des chaînes et des SMAD[156]. Prolonger cette conception de la régulation audiovisuelle des chaînes et des SMAD serait probablement la solution la plus pragmatique et éviterait, comme cela se produit aujourd’hui[157], qu’un service dédié à la France soit régulé pour la plupart de ses activités par le régulateur néerlandais ou allemand qui lui applique le droit de son pays.
La mise en place, à l’image du DSA, de sanctions plus efficaces.
Le DSA prévoit la possible mise en place de restrictions d’accès aux services les plus problématiques[158]. Cette solution est plus compliquée à mettre en œuvre pour les SMAD et les chaînes de télévision.
La directive SMA ne prévoit pas de sanction particulière. Ce sont les Etats membres qui organisent, à l’occasion de la transposition de la directive, les sanctions applicables en cas de non respect des règles transposant la directive. A titre d’exemple, le droit français prévoit dans la loi de 1986 un certain nombre de décisions (dont des sanctions)[159] que peut prendre le régulateur (l’ARCOM) en cas d’abus commis par un SMAD ou une chaîne de télévision[160]. Des sanctions financières sont possibles (entre 3 et 5% du chiffre d’affaires annuel selon les cas, suspension temporaire de la diffusion de publicité) et un retrait de l’autorisation d’occupation du domaine hertzien ou la résiliation unilatérale de la convention conclue entre le service et l’ARCOM peuvent être prononcés pour les manquements les plus graves. Encore faut-il que le service concerné soit conventionné. Rappelons que seuls les services TNT et les services établis en France doivent signer une convention avec l’ARCOM. Les services non établis en France mais qui utilisent une liaison satellitaire française doivent respecter la loi de 1986 (sans avoir à signer de convention avec l’ARCOM) [161] et peuvent se voir interdire d’émettre si le service ne respecte pas la loi de 1986[162]. Si le service diffusé relève de la compétence d’un autre Etat membre de l’Union européenne ou partie à l’accord sur l’Espace économique européen, l’ARCOM peut également suspendre provisoirement sa retransmission dans certaines situations[163]. A notre connaissance, cette dernière procédure n’a jamais été utilisée par le CSA ou l’ARCOM. La loi de 1986 prévoit également des possibilités de blocage spécifique en matière de désinformation, mais, là-encore, seuls les services ayant un lien avec la France sont visés[164]. Le DSA permet de son côté aux autorités concernées d’agir plus largement en matière de désinformation sans se soucier du lieu d’établissement du service[165].
La situation est différente pour les nombreux services qui ne rentrent pas dans ces catégories, c’est-à-dire les services qui émettent en France sans passer par une liaison satellitaire française et qui ne relèvent pas d’un pays de l’UE ou partie à l’accord sur l’Espace économique européen. Pour ces services, la situation est complexe. Dans le cadre du DSA, la solution est assez simple : les restrictions d’accès sont mises en place par les FAI (voire au gestionnaires DNS) qui se voient imposer de rendre inaccessibles les services concernés[166]. En matière de chaînes et de SMAD la réception ne se limite pas aux FAI. Les chaînes et les SMAD sont disponibles sur différents réseaux. Les rendre indisponibles sur l’ensemble d’un territoire n’est pas évident. Si le SMAD ou la chaîne émet en ligne via un site internet sans passer par un distributeur tiers, il est possible, pour certains types d’abus, de demander à la justice ou à l’ARCOM d’imposer aux FAI français de bloquer l’accès au site concerné[167]. Si le service passe par un distributeur satellitaire, une télévision connectée ou par une offre audiovisuelle commercialisée par un FAI, le droit français ne permet d’imposer à ces acteurs de cesser la distribution d’un service que s’ils relèvent de la France. Si ce n’est pas le cas, rien n’est possible. Les FAI disponibles en France sont gérés par des sociétés établies en France. Les télévisions connectées sont a priori gérées par des acteurs vigilants vis-à-vis des services pouvant être problématiques. Pour ce qui est des applications, les magasins d’applications de Google ou d’Apple régulent généralement eux-mêmes efficacement les services proposés. Il est toutefois possible de trouver facilement des applications en ligne en dehors de ces deux magasins. Reste la distribution satellitaire, il n’y a pas de solution qui empêcherait une personne résidant en France de pointer son antenne de réception satellite vers un opérateur étranger distribuant des services problématiques. Il ne reste plus alors qu’à s’en remettre à la sagesse de ces gestionnaires de bouquets satellitaires pour éviter qu’un service aux contenus problématiques soit diffusé dans les pays de l’UE.
En dehors de la loi de 1986, les raisons qui permettent de bloquer la diffusion d’une chaîne ou la disponibilité d’un SMAD sont assez peu nombreuses : en matière d’atteinte aux droits de propriété, les services de communication au public en ligne qui violent les droits de propriété sur une œuvre ou des droits de diffusion d’une manifestation sportive peuvent être bloqués par les FAI voire déréférencés des moteurs de recherches quelle que soit l’origine géographique du service concerné[168]. Pour autant, encore faut-il que la diffusion ait lieu en ligne. Une diffusion par satellite ou par le biais d’un service audiovisuel proposé par un FAI n’est a priori pas concernée faute de respecter tous les critères posés par la définition législative de la communication au public en ligne[169].
Les textes, les situations, les compétences territoriales et organiques sont dans l’ensemble de ces cas multiples. Le DSA a pour mérite de regrouper l’ensemble de mesures réactives possibles en un texte. En matière de SMAD et de chaînes, il existe, rien que pour l’application de la directive SMA, 27 situations différentes car, rappelons-le, la directive n’envisage pas les sanctions. Ajoutons que toutes les situations de blocage n’ont pas un lien avec la directive SMA[170].
Il serait probablement intéressant de rendre le droit applicable au sein des pays de l’UE plus lisible et plus unifié en matière de blocage de SMAD et de chaînes de télévision. Il pourrait être envisageable de préciser qu’un SMAD ou une chaîne émettant dans un pays de l’UE puisse être bloqué dans ce pays et par ce pays en raison d’une liste de comportements problématiques (dignité humaine, racisme, désinformation, appel à la haine ou au terrorisme, non respect des droits de propriété intellectuelle…) Il pourrait également, pour plus d’efficacité, être envisageable de permettre à l’UE de bloquer un service problématique pour sa diffusion sur l’intégralité du territoire de l’UE. Néanmoins, comme nous l’avons exposé plus haut, les modalités techniques du blocage sont loin d’être évidentes notamment lorsque le service est proposé sur le territoire de l’UE par un satellite qui ne relève pas d’un pays membre.
Il est intéressant de noter que l’UE a déjà emprunté une solution de ce type au sujet de la diffusion de RT (Russia Today) au sein de l’UE pendant le conflit entre la Russie et l’Ukraine[171]. Pour autant les décisions de l’UE interdisant la diffusion de RT au sein de l’UE ne sont pas fondées sur la directive SMA (qui ne donne pas de compétence à l’UE en la matière mais à ses Etats membres) et apparaissent bancales juridiquement parlant[172]. Cette réaction de l’UE était probablement justifiée au vu des circonstances mais ces dernières ont illustré le fait qu’il manquait une base juridique solide pour faire face à une telle situation[173]. Le DSA pourrait constituer une source d’inspiration intéressante pour solutionner efficacement cette lacune au sein d’un nouveau texte.
Le recours inspiré aux situations de crise.
L’article 36 du DSA prévoit un mécanisme de réaction aux crises[174] qui permet à la Commission d’imposer des mesures adaptées aux TGPL et TGMRL. La Commission peut imposer « des mesures spécifiques, efficaces et proportionnées » pour prévenir, éliminer ou limiter toute contribution à une menace grave. Dans des situations comme celles de l’épidémie de COVID19, de la guerre en Ukraine ou de la guerre à l’encontre du HAMAS, la mise en place d’une situation de crise permettant à l’UE ou à chaque Etat membre de prendre des décisions adaptées pour éviter les dérapages sur les chaînes de télévision ou les SMAD pourrait être une idée à étudier. Dernièrement, l’ARCOM a ainsi dû insister de façon informelle sur « la nécessité de veiller à la rigueur et à l’honnêteté de l’information et de faire preuve de la plus grande vigilance pour respecter les impératifs de pluralisme et d’équilibre des points de vue » dans le cadre du traitement de l’information liée aux attaques du HAMAS le 7 octobre 2023 en Israël[175]. Les chaînes, les radios ou les SMAD qui relèvent de la France sont déjà tenus par des obligations en matière d’honnêteté de l’information et de pluralisme[176]. Des dispositions spécifiques existent également sur la désinformation[177]. Pour autant, les procédures visant à cibler les abus sont longues et interviennent généralement après que les faits problématiques aient été diffusés. Le processus de crise mis en place par le DSA vise à prévenir les abus. La mise en place d’un système préventif particulier adapté aux périodes de crise pourrait s’avérer efficace et utile y compris pour les télévisions, les radios et les SMAD qui, bien que non concernés par le DSA, n’en possèdent pas moins une base d’auditeurs ou de spectateurs importante. L’étude de cette proposition nécessiterait néanmoins d’être particulièrement vigilant sur la balance à opérer entre les mesures de réaction face aux crises et la liberté éditoriale des médias concernés. Dans tous les cas, les premiers recours à ce dispositif dans le cadre du DSA permettront de donner des indications sur le bon fonctionnement de ce mécanisme dans un système démocratique et pluraliste.
L’influence du DSA pour contrôler les algorithmes de recommandation des SMAD.
Le DSA impose un certain nombre d’obligations liées à l’utilisation d’algorithmes par les services intermédiaires et donc par les PPV[178]. Les obligations qui concernent les algorithmes de recommandation pourraient être utilement imposées aux SMAD (services de vidéo à la demande et télévision à la demande) qui sont particulièrement friands de l’utilisation d’algorithmes pour leur système de recommandations. Leur utilisation n’est pas sans poser certains problèmes notamment lorsqu’il est question de mettre en avant certaines œuvres. De la mise en avant d’une œuvre (ou de sa mise à l’écart) par des recommandations peut découler des conséquences importantes sur le visionnage d’une œuvre et donc sur la rémunération des ayants droit. Plusieurs solutions imposées par le DSA pourraient être reprises. Il pourrait être pertinent d’informer et de donner le choix aux utilisateurs : le DSA prévoit que les conditions générales des services doivent comporter dans « un langage simple et compréhensible » les principaux paramètres utilisés dans leurs systèmes de recommandation ainsi que les options dont disposent les destinataires du service pour modifier ou influencer ces paramètres[179]. Les très grands services doivent également proposer un système de recommandation alternatif qui ne procède pas du profilage[180]. Enfin, donner la possibilité à des chercheurs de travailler sur les algorithmes des SMAD – tout en préservant le secret des affaires de ces services – comme le prévoit le DSA[181] pour d’autres services serait également une solution intéressante permettant de comprendre leur fonctionnement et de limiter les éventuels abus.
**
*
Le DSA encadre nouvellement les activités des PPV mais il constitue également une inspiration pour mieux réguler les chaînes et les SMAD. L’existence d’un double degré d’obligation pour les PPV posé par le DSA et la directive SMA interroge. L’applicabilité du DSA aux PPV laisse-t-il une utilité à la directive SMA (et à ses transpositions dans chaque Etat membre) dans sa partie applicable aux PPV ?
Comme nous l’avons vu, le droit des PPV issu de la directive SMA impose dans certains cas des exigences qui ne figurent pas dans le DSA (accessibilité, communications commerciales…) Il n’est donc pas inutile. L’existence des deux textes ajoute par contre à la complexité du droit applicable pour les opérateurs concernés par ces deux sources. On ajoutera que le droit des PPV issu de la directive SMA ne suscite guère d’enthousiasme de la part des chercheurs, des praticiens, des services concernés ou des régulateurs. Tous ces acteurs sont par contre très au point sur l’application du DSA. Dans ces conditions, il semble peu probable que le droit des PPV issu de la directive SMA ait un avenir face à la place débordante qu’est en train de prendre le DSA. En cas de succès dans son application, le DSA pourrait même aller jusqu’à constituer un modèle pour un encadrement plus efficace des chaînes de télévision et des SMAD.
- Règlement (UE) 2022/2065 du Parlement Européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques), JOUE du 27 oct. 2022 ↑
- V. notamment : E. Dreyer, Règlement DSA : premiers éléments de présentation, Légipresse 2022, p. 601 ; L. Badiane, Ma. Bourgeois, T. Castelan, L. Bataille, J. Dehavay et S. de Kermenguy, Le règlement 2022/2065 relatif à un marché unique des services numériques (DSA). Un nouveau paysage juridique pour tous les intermédiaires de l’Internet, JCP E, 2023, 1026 ; L. Durand-Viel, Le DSA (règlement européen sur les services numériques), une étape majeure dans la régulation des plateformes numériques, Légipresse 2022, p. 53 ; S. Carré, Le règlement DSA : une avancée majeure pour la lutte contre les contenus illicites et la protection des droits fondamentaux des utilisateurs, Dalloz IP/IT 2023, p. 272 ; S. Merabet, Le Digital Services Act : permanence des acteurs, renouvellement des qualifications, JCP G n°41, p. 1901 & Le Digital Services Act : guide d’utilisation de lutte contre les contenus illicites, JCP G n° 42, p. 1958 ; G. Loiseau, Le DSA, CCE fév. 2023, p. 4 ↑
- Pour ces définitions, v. art. 3 DSA ↑
- Posé par les articles 12 et s. de la directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l’information, et notamment du commerce électronique, dans le marché intérieur («directive sur le commerce électronique»), JOUE L 178 du 17.7.2000, p. 1. ↑
- Sauf exceptions : v. art. 6 DSA ↑
- V. art. 54 DSA ↑
- V. art. 56 DSA ↑
- V. art. 33 DSA : « nombre mensuel moyen de destinataires actifs du service dans l’Union égal ou supérieur à 45 millions ». L’art. 3 du DSA définit un « destinataire actif de plateforme en ligne » comme : « un destinataire du service qui a été en contact avec une plateforme en ligne, soit en demandant à la plateforme en ligne d’héberger des informations, soit en étant exposé aux informations hébergées par la plateforme en ligne et diffusées via son interface en ligne », et un « destinataire actif de moteur de recherche en ligne » comme : « un destinataire du service qui a soumis une requête à un moteur de recherche en ligne et a été exposé aux informations indexées et présentées sur son interface en ligne ». Les trois sites pornographiques présents sur la liste des TGPL ont contesté le calcul opéré par la Commission pour les placer sur cette liste : v. DSA : trois sites pornographiques attaquent l’UE en justice, Euractiv, 8 mars 2024. Zalando a de son côté vu sa requête sur la question rejetée par le Tribunal de l’Union : CJUE, T-348/23, 3 sept. 25, Zalando SE c/ Commission tout comme Amazon : CJUE, T-367/23, 19 nov. 25, Amazon EU SÀRL c/ Commission. Pour un commentaire de ces deux décisions, v. M. Le Roy, Qu’est-ce qu’une très grande plateforme en ligne au sens du DSA ?, Lamy Immatériel, avril 2026, p. 37 ↑
- V. art. 56, §2 & 3 pour le principe ; art. 56, §4 DSA pour l’exception. V. également considérant n° 125 DSA. ↑
- Vingt-cinq très grands services en ligne ont jusqu’ici été désignés comme tels par la Commission. Pour une liste complète régulièrement mise à jour, v. https://grist.numerique.gouv.fr/o/docs/oECiW8VcnFG8/Veille-Digital-Services-Act/p/5 ↑
- V. art. 56 DSA ↑
- V. Très grandes plateformes en ligne et très grands moteurs de recherche en ligne désignés conformément à l’article 33, paragraphe 4, du règlement (UE) 2022/2065 du Parlement européen et du Conseil relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques), C/2024/1320, JOUE du 5 fév. 2024. Temu a été ajouté à cette liste le 31 mai 2024 : https://ec.europa.eu/commission/presscorner/detail/fr/ip_24_3047 puis Shein en avril 2024 : https://france.representation.ec.europa.eu/informations/la-commission-designe-shein-comme-tres-grande-plateforme-en-ligne-au-titre-de-la-legislation-sur-les-2024-04-26_fr et XNXX en juillet 2024 : https://digital-strategy.ec.europa.eu/fr/news/commission-designates-adult-content-platform-xnxx-very-large-online-platform-under-digital-services. Cliquez pour obtenir une liste actualisée. ↑
- V. Directive du Parlement européen et du Conseil du 14 novembre 2018 modifiant la directive 2010/13/UE visant à la coordination de certaines dispositions législatives, réglementaires et administratives des États membres relatives à la fourniture de services de médias audiovisuels (directive «Services de médias audiovisuels»), JOUE du 28 nov. 2018 ↑
- V. art. 2, §4 DSA ↑
- V. Art. 1er SMA. Par définition, les services de radio ne sont pas concernés par la directive SMA. On notera par contre que la loi du 30 septembre 1986 sur la liberté de communication (v. infra) intègre pour sa part ces services. ↑
- V. art. 1er, §1, a, i SMA ↑
- V. art. 1er, §1, c SMA ↑
- Responsabilité pénale (v. art. 93-3 de la loi n° 82-652 du 29 juillet 1982) ainsi qu’administrative devant les régulateurs nationaux compétents qui peuvent sanctionner les chaînes et les SMAD dont ils ont la responsabilité (v. art. 42 et s. de la loi n° 86-1067 du 30 sept. 1986 sur l’audiovisuel pour le cas de la France). ↑
- « un service tel que défini aux articles 56 et 57 du traité sur le fonctionnement de l’Union européenne, pour lequel l’objet principal du service proprement dit ou d’une partie dissociable de ce service ou une fonctionnalité essentielle du service est la fourniture au grand public de programmes, de vidéos créées par l’utilisateur, ou des deux, qui ne relèvent pas de la responsabilité éditoriale du fournisseur de la plateforme de partage de vidéos, dans le but d’informer, de divertir ou d’éduquer, par le biais de réseaux de communications électroniques au sens de l’article 2, point a), de la directive 2002/21/CE, et dont l’organisation est déterminée par le fournisseur de la plateforme de partage de vidéos, à l’aide notamment de moyens automatiques ou d’algorithmes, en particulier l’affichage, le balisage et le séquencement ». ↑
- En droit français, la partie relative aux PPV de la directive SMA est transposée dans la loi de 1986 sur l’audiovisuel : loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication, JORF, 1er octobre 1986 ↑
- V. M. Le Roy, Le nouveau droit des plateformes de partage de vidéos, Légipresse, 2021, p. 205 ↑
- V. supra ↑
- La directive SMA prévoit que chaque pays de l’UE doit établir une liste des PPV qui relèvent de sa compétence selon l’établissement du siège social, v. infra ↑
- Nous visons ici uniquement la partie de la directive SMA relative aux PPV. ↑
- A ce titre, le droit des PPV établi par la directive SMA peut être vu comme un pré-DSA sectoriel. ↑
- Le DSA prévoit expressément cette responsabilité vis-à-vis des destinataires des services (art. 54) et organise des sanctions des autorités compétentes en cas de non respect des mesures prévues par le DSA (v. art. 52 & 73 et s.) ; la directive SMA demande simplement aux États membres de « veiller » à ce que tous les fournisseurs de plateformes de partage de vidéos relevant de leur juridiction appliquent les mesures prévues par la directive (art. 28ter, §3). ↑
- V. loi de 1986, préc. ↑
- Le droit des PPV étant issu d’une directive, les règles applicables sont harmonisées dans tous les pays de l’UE de telle façon qu’une PPV qui ne relève pas de la France se verra tout de même appliquer les mêmes règles qu’en France dans le pays de l’UE dont elle relève (si elle relève bien d’un pays de l’UE). ↑
- V. décret n° 2021-1922 du 30 décembre 2021 pris pour l’application de l’article 60 de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication et fixant les principes généraux applicables aux communications commerciales audiovisuelles fournies sur les plateformes de partage de vidéos, JORF n°0304, 31 décembre 2021, texte n° 87 ↑
- Sur l’ensemble de ces points, V. M. Le Roy, Le nouveau droit des plateformes de partage de vidéos, préc. ↑
- V. art. 28bis SMA ↑
- V. art. 3 DSA ↑
- V. combinaison des articles 2 & 3 de la directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000, préc. On notera que l’article 3 prévoit tout de même quelques exceptions au principe d’établissement. ↑
- Dans cette situation, si le service est une TGPL ou TGMRL, il relève de la Commission ; si ce n’est pas le cas, il relève du pays dans lequel son représentant légal réside ou est établi. A défaut, tous les Etats membres sont compétents pour surveiller le service et lui faire respecter le DSA : v. art. 56 §6 & 56 §7 DSA. ↑
- Rappelons que la loi française prévoyait déjà en matière de lutte contre la haine en ligne une applicabilité de même type : sont concernés par le contrôle de l’ARCOM les opérateurs de plateforme en ligne qui proposent « un service de communication au public en ligne reposant sur le classement, le référencement ou le partage de contenus mis en ligne par des tiers et dont l’activité sur le territoire français dépasse un seuil de nombre de connexions déterminé par décret, qu’ils soient ou non établis sur le territoire français ». V. art 42 de la loi n° 2021-1109 du 24 août 2021 confortant le respect des principes de la République, JORF n°0197, 25 août 2021. Ce dispositif présenté comme un « pré-DSA » en matière de haine en ligne ne s’applique plus depuis le 31 décembre 2023. Il est dorénavant remplacé par les dispositions du DSA. ↑
- V. art. 28bis, §6 SMA ↑
- V. supra ↑
- Pour le détail et les exceptions, v. art. 56 DSA & art. 28bis SMA ↑
- Directive 2000/31/CE, préc. ↑
- « des images, combinées ou non à du son, qui sont conçues pour promouvoir, directement ou indirectement, les marchandises, les services ou l’image d’une personne physique ou morale qui exerce une activité économique; ces images accompagnent un programme ou une vidéo créée par un utilisateur ou y sont insérées moyennant paiement ou autre contrepartie, ou à des fins d’autopromotion. La communication commerciale audiovisuelle revêt notamment les formes suivantes: publicité télévisée, parrainage, téléachat et placement de produit » ↑
- V. Art. 1er SMA pour une définition. ↑
- V. art. 28ter SMA ↑
- V. art. 28ter, §1, c) SMA ↑
- V. art. 28ter, §2 SMA ↑
- V. la combinaison des art. 28ter, §2 & 9, §1 SMA ↑
- V. la combinaison des art. 28ter, §2 & 9, §1 SMA ↑
- Pour l’ensemble de ces dispositions, v. la combinaison des art. 28ter, §2 & 9, §1 SMA ↑
- V. art. 28ter SMA ↑
- V. art. 28ter, §4 SMA ↑
- Pour l’ensemble de ces dispositions, v. art. 28ter, §3 à §10 SMA ↑
- V. considérant n° 9 DSA et art. 1 ↑
- V. infra ↑
- V. art. 3, i pour une définition. ↑
- V. supra pour le détail ↑
- V. art. 26, §2 DSA ↑
- V. art. 26, §2 DSA & 28ter, 3, c) SMA ↑
- V. art. 26 DSA ↑
- V. art. 26, §3 DSA ↑
- Règlement (UE) 2016/679 du Parlement et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données). ↑
- V. art. 28ter, §3 SMA ↑
- Pour un exemple de non respect de cette obligation par X, v. Communiqué de presse de la Commission du 12 juillet 2024 : La Commission adresse des constatations préliminaires à X pour violation du règlement sur les services numériques ou par TikTok, v. Communiqué de presse du 15 mai 2005, La Commission adresse des constatations préliminaires à X pour violation du règlement sur les services numériques ↑
- Amazon a déjà contesté la mise en place de ce registre mais la CJUE a rejeté en référé la demande de suspension de cette obligation : CJUE, Ord., C-639/23 P(R), 27 mars 2024. Commission/Amazon Service Europe. La Commission a récemment demandé des informations à Pornhub, Stripchat et XVideos sur ces registres. La Commission soupçonne que ces registres ne sont pas facilement consultables et ne permettent pas les requêtes multicritères et les outils d’interfaces de programmation d’applications (API), comme l’exige l’article 39 du DSA : v. Communiqué de presse de la Commission du 18 octobre 2024, La Commission demande des informations au titre de la législation sur les services numériques à Pornhub, Stripchat et XVideos sur leurs rapports de transparence et leurs référentiels publicitaires. ↑
- V. art. 28ter, §10 SMA ↑
- V. art. 28ter, §2 SMA ↑
- Sur la notion de risques systémiques, v. art. 34 DSA ↑
- V. art. 34, §2, d DSA ↑
- V. art. 35, §1, e DSA ; v. également l’enrichissant premier rapport (nov. 25) du Comité et de la Commission sur le recensement et l’évaluation des risques systémiques les plus importants et récurrents signalés par les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne ou recensés via d’autres sources d’informations. Rapport imposé par l’article 35.2 DSA. ↑
- Pour une analyse des mesures de transposition en la matière mises en place dans les différents pays de l’Union, v. Observatoire Européen de l’audiovisuel, The protection of minors on video sharing platforms: age verification and parental control, avril 2024 ↑
- La directive vise de façon générale tous les contenus susceptibles de nuire à l’épanouissement physique, mental ou moral des mineurs. ↑
- Pour le détail de l’ensemble de ces préconisations, v. art. 28ter, §3 SMA ↑
- V. art. 28ter, §4 SMA ↑
- V. Art. 28 DSA ; v. également communiqué de presse de la Commission du 26 mars 2026, La Commission enquête sur le respect par Snapchat des règles en matière de protection des mineurs prévues par le règlement sur les services numériques. ↑
- Sur ces codes, v. art. 45 DSA ↑
- V. considérant n° 71 DSA ↑
- La directive SMA vise néanmoins la protection des données personnelles des mineurs : v. art. 6bis et 28ter SMA. Sur la protection des données lors de la vérification d’âge pour accéder à des services en ligne, v. Recommandation de la Commission du 29 avril 2026 (2026 C(2026) 4225 final) sur l’établissement d’un cadre commun pour les technologies de vérification de l’âge à l’échelle de l’UE ↑
- Sur cet organe, v. art. 61 DSA ↑
- Annex to the Communication to the Commission Approval of the content on a draft Communication from the Commission – Guidelines on measures to ensure a high level of privacy, safety and security for minors online, pursuant to Article 28(4) of Regulation (EU) 2022/2065 ↑
- La Commission a conclu à titre préliminaire qu’Instagram et Facebook enfreignent la législation sur les services numériques (DSA) pour ne pas avoir identifié, évalué et atténué avec diligence les risques liés à l’accès des mineurs de moins de 13 ans à leurs services : v. Communiqué de presse de la Commission du 29 avril 2026. ↑
- On notera que sur cette question la France réussit déjà pour l’instant à imposer son état du droit national visant au contrôle de l’âge des utilisateurs des services pornographiques. V. combinaison des articles 227-24 du Code pénal et des articles 6-1 et suivants de loi de 2004 sur la confiance dans l’économie numérique modifiée par la loi SREN du 21 mai 2024. ↑
- La Commission a conclu à titre préliminaire en mars 2026 que Pornhub, Stripchat, XNXX et XVideos enfreignent la législation sur les services numériques pour avoir permis aux mineurs d’accéder à leurs services sans système valable de vérification d’âge : v. communiqué de presse de la Commission du 26 mars 2026. ↑
- La Commission a annoncé avoir mis à disposition des personnes concernées (Etats et entreprises) un plan de vérification de l’âge en ligne. La publication de ce plan lance une phase pilote au cours de laquelle une solution logicielle pour la vérification de l’âge sera testée et personnalisée en collaboration avec les États membres, les plateformes en ligne et les utilisateurs finaux. Le Danemark, la France, la Grèce, l’Italie et l’Espagne seront les premiers à adopter la solution technique en vue de l’intégrer dans leur portefeuille numérique national ou de publier une application nationale personnalisée de vérification de l’âge sur les boutiques d’applications. Les acteurs du marché peuvent également adopter la solution logicielle et la développer davantage. Parallèlement, il y aura des tests approfondis avec les plateformes en ligne, y compris les fournisseurs de contenu pour adultes. Les processus d’émission et de présentation de la preuve de majorité seront gérés par des entités distinctes, garantissant ainsi la protection de la vie privée. Pour le moment, la solution de vérification d’âge n’est conçue que pour prouver la majorité des utilisateurs, notamment pour accéder aux sites pornographiques. La Commission précise néanmoins que la solution peut également être facilement adaptée pour prouver d’autres tranches d’âge. Sur le sujet, v. également la recommandation de la Commission du 29 avril 2026 (2026 C(2026) 4225 final) sur l’établissement d’un cadre commun pour les technologies de vérification de l’âge à l’échelle de l’UE ↑
- En ce sens, v. communiqué de presse de la Commission du 26 mars 2026. ↑
- V. art. 34, §1, d DSA ; La Commission a conclu à titre préliminaire qu’Instagram et Facebook enfreignent la législation sur les services numériques (DSA) pour ne pas avoir identifié, évalué et atténué avec diligence les risques liés à l’accès des mineurs de moins de 13 ans à leurs services : v. Communiqué de presse de la Commission du 29 avril 2026. ↑
- V. art. 34, §2, b DSA. La Commission a d’ailleurs demandé au réseau social X de s’expliquer sur sa politique de modération des contenus et notamment sur la réduction des effectifs destinés à cette tâche : v. le communiqué de presse de la Commission, La Commission ouvre une procédure formelle à l’encontre de X au titre du règlement sur les services numériques, 18 décembre 2023 et Commission européenne, DSA : la Commission demande à X des informations sur la diminution de leurs ressources de modération de contenu, 8 mai 2024 ; la Commission a également constaté à titre préliminaire plusieurs manquement du groupe Meta : Facebook et d’Instagram « ne semblent pas permettre aux utilisateurs de fournir des explications ou des éléments de preuve à l’appui de leurs recours. Il est donc difficile pour les utilisateurs de l’UE d’expliquer plus en détail pourquoi ils ne sont pas d’accord avec une décision de Meta concernant des contenus, ce qui limite l’efficacité du mécanisme de recours. Les points de vue de la Commission concernant l’outil de signalement de Meta, les interfaces trompeuses et le mécanisme de recours reposent sur une enquête approfondie, incluant une coopération avec le coordinateur irlandais pour les services numériques Appel Center Europe. » V. le communiqué de presse de la Commission, Selon les constatations préliminaires de la Commission, TikTok et Meta ne respectent pas leurs obligations de transparence au titre du règlement sur les services numériques, 24 oct.25. Ces constats sont à mettre en perspective avec le dernier rapport transparence de l’Appel Center Europe (organisme certifié chargé de régler les litiges entre les plateformes et leurs utilisateurs qui souhaitent contester leurs décisions de modération) qui s’est avéré très critique sur le travail de modération des contenus par les plateformes relevant de sa compétence comme Facebook, TikTok ou Instagram. ↑
- V. art. 35, §1, j DSA ; La Commission a conclu à titre préliminaire qu’Instagram et Facebook enfreignent la législation sur les services numériques (DSA) pour ne pas avoir identifié, évalué et atténué avec diligence les risques liés à l’accès des mineurs de moins de 13 ans à leurs services : v. Communiqué de presse de la Commission du 29 avril 2026. ↑
- V. art. 44, §1, j DSA ↑
- A la manière du système PEGI pour les jeux vidéo. ↑
- A la manière du système Kijkwijzer utilisé aux Pays-Bas et en Belgique : https://www.kijkwijzer.nl/fr/ ↑
- V. Communiqué de presse de la Commission du 13 juin 2024, La Commission envoie une demande d’informations sur les contenus illicites et la protection des mineurs à Pornhub, XVideos et Stripchat en vertu de la législation sur les services numériques. ↑
- V. Communiqué de presse de la Commission du 27 mai 2025, La Commission ouvre des enquêtes pour protéger les mineurs contre les contenus pornographiques au titre de la législation sur les services numériques ↑
- V. communiqué de presse de la Commission du 26 mars 2026. ↑
- V. supra pour une présentation de leur contenu. ↑
- Le DSA l’envisage dans son considérant n° 81. TikTok propose déjà par exemple aux parents de mettre en place ce type de limites pour leurs enfants. La Commission a néanmoins ouvert une procédure formelle sur la protection des mineurs et la conception addictive de TikTok : v. communiqué de presse de la Commission européenne, La Commission ouvre une procédure formelle à l’encontre de TikTok au titre de la législation sur les services numériques, 19 février 2024. Suite à cette procédure, la Commission a rendu des conclusions préliminaires en février 2026 précisant que « TikTok doit modifier la conception de base de son service ». Par exemple, en désactivant des fonctionnalités addictives clés telles que le scrolling infini au fil du temps, en mettant en œuvre des interruptions de temps d’écran efficaces, y compris pendant la nuit, et en adaptant son système de recommandation (sans donner plus de détails sur la question) : v. Communiqué de presse de la Commission du 6 février 2026, La Commission conclut à titre préliminaire que la conception addictive de TikTok est contraire à la législation sur les services numériques. Dans le même sens, la Commission a également ouvert une procédure en mai 2024 à l’encontre de Meta (Facebook, Instagram) sur la stimulation des « dépendances comportementales chez les enfants » pouvant être crée par les services du groupe : v. https://france.representation.ec.europa.eu/informations/la-commission-ouvre-une-procedure-formelle-lencontre-de-meta-au-titre-du-dsa-concernant-la-2024-05-16_fr Les lignes directrices de juillet 2025 visent également ces pratiques. ↑
- Pour un exemple de ces pratiques, v. Le Monde, L’Italie condamne TikTok à une amende de 10 millions d’euros pour avoir laissé prospérer des vidéos « menaçant la sécurité des mineurs », 15 mars 2024. Ces pratiques sont bien visées par les lignes directrices. ↑
- Sur ce sujet, v. Laboratoire d’innovation numérique de la CNIL (LINC), Cahier IP6, La forme des choix, mars 2019 ↑
- V. supra ↑
- V. supra encadré de présentation des lignes directrices. ↑
- V. considérant n° 46 DSA et art. 14 ↑
- V. considérant n° 89 DSA ↑
- A titre d’exemple, la France a peu avancé sur la question pour les PPV. ↑
- Des mesures d’adaptation des droits nationaux peuvent néanmoins être nécessaires : pour le DSA, v. loi n° 2024-449 du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique, JORF n° 0117, 22 mai 2024 ↑
- V. art. 14 DSA ↑
- V. art. 27 DSA ↑
- V. art. 38 DSA ↑
- Règlement (UE) 2016/679 du Parlement et du Conseil du 27 avril 2016, préc. : « toute forme de traitement automatisé de données à caractère personnel consistant à utiliser ces données à caractère personnel pour évaluer certains aspects personnels relatifs à une personne physique, notamment pour analyser ou prédire des éléments concernant le rendement au travail, la situation économique, la santé, les préférences personnelles, les intérêts, la fiabilité, le comportement, la localisation ou les déplacements de cette personne physique ». ↑
- V. supra ↑
- V. art. 34 DSA ↑
- V. art. 35 DSA ↑
- C’est dans ce cadre que la Commission a adressé début octobre 2024 des demandes d’informations à YouTube, Snapchat et TikTok concernant leurs systèmes de recommandation des contenus et notamment les algorithmes employés par ces service. YouTube et Snapchat sont invités à fournir des informations détaillées sur les paramètres utilisés par leurs algorithmes pour recommander des contenus aux utilisateurs, ainsi que sur leur rôle dans l’amplification de certains risques systémiques, y compris ceux liés au processus électoral et au discours civique, au bien-être mental des utilisateurs (par exemple, les comportements addictifs et les « trous de lapin ») et à la protection des mineurs. Les questions portent également sur les mesures prises par les plateformes pour atténuer l’influence potentielle de leurs systèmes de recommandation sur la diffusion de contenus illicites, telles que la promotion des drogues illicites et des discours de haine. TikTok est pour sa part invité à fournir des informations sur les mesures adoptées pour éviter la manipulation du service par des acteurs malveillants et pour atténuer les risques liés aux élections, au pluralisme des médias et au discours civique, qui peuvent être amplifiés par certains systèmes de recommandation. V. https://digital-strategy.ec.europa.eu/fr/news/commission-sends-requests-information-youtube-snapchat-and-tiktok-recommender-systems-under-digital ↑
- V. art. 69 DSA ↑
- Ces explications peuvent également être exigées lors d’inspections de la Commission, v. art. 69, §5 DSA ↑
- Pour un exemple de non respect de cette obligation par X, v. Communiqué de presse de la Commission du 12 juillet 2024 : La Commission adresse des constatations préliminaires à X pour violation du règlement sur les services numériques et Communiqué de presse de la Commission du 16 août 2024, La Commission adresse une demande d’informations à Meta au titre de la législation sur les services numériques. ↑
- V. art. 47 DSA ↑
- Pour une analyse des mesures de transposition en la matière mises en place dans les différents pays de l’Union, v. Observatoire Européen de l’audiovisuel, Accessibility measures as implemented by AVMS providers for persons with disabilities, mars 2024 ↑
- V. art. 28ter, §3, i SMA ↑
- V. art. 60 de la loi de 1986 relative à l’audiovisuel, préc. ↑
- V. art. 22 DSA ↑
- V. art. 20 DSA ↑
- V. art. 21 DSA. Sur ce sujet, Facebook, TikTok et YouTube passeront par le même organisme indépendant Irlandais (l’Appeals Center Europe) pour opérer le traitement extrajudiciaire des litiges les opposant à leurs utilisateurs. ↑
- V. art. 15 (rapport annuel de transparence notamment sur les activités de modération des contenus), 24 & 42 pour TGPL et TGMRL. Sur le sujet, la Commission a adressé une demande d’informations à Pornhub, Stripchat et XVideos sur leur pratique de modération des contenus (processus de modération du contenu, système interne de traitement des plaintes et moyens automatisés utilisés aux fins de la modération du contenu : v. article 3, t du DSA pour une définition). La demande de la Commission vise également « les informations sur les ressources humaines consacrées à la modération des contenus, y compris des informations sur leurs qualifications et leur expertise linguistique, ainsi que des indicateurs de précision et des informations connexes sur les moyens automatisés utilisés à des fins de modération des contenus » : v. Communiqué de presse de la Commission du 18 octobre 2024, La Commission demande des informations au titre de la législation sur les services numériques à Pornhub, Stripchat et XVideos sur leurs rapports de transparence et leurs référentiels publicitaires.Sur l’harmonisation de la présentation des rapports de transparence (et son intérêt) par les services visés par le DSA, v. Communiqué de presse de la Commission, Les rapports de transparence harmonisés au titre du règlement sur les services numériques apportent une clarté accrue sur les pratiques de modération des contenus en ligne, 2 mars 26 ↑
- V. art. 41 DSA ↑
- V. art. 34 DSA. Au sujet de la nouvelle fonctionnalité TikTok lite, v. le communiqué de presse de la Commission européenne, La Commission adresse une demande d’informations à TikTok concernant le lancement de TikTok Lite en France et en Espagne, 17 avril 2024 ; le communiqué sur l’ouverture d’une procédure par la Commission : La Commission ouvre une procédure à l’encontre de TikTok en vertu du règlement sur les services numériques en rapport avec le lancement de TikTok Lite en France et en Espagne, et annonce son intention de suspendre le programme de récompenses dans l’UE, 22 avril 2024 puis l’annonce de la suspension de déploiement de cette fonctionnalité dans l’UE par TikTok : TikTok Lite suspend dans l’UE son système de récompenses, accusé de susciter de l’addiction, Le Monde, 24 avril 2024.TikTok a finalement annoncé avoir retiré définitivement son programme Lite des pays de l’UE. Cet événement marque probablement le premier succès illustrant l’efficacité du DSA. ↑
- V. art. 25 DSA et pour un exemple de non respect de cette obligation par X, v. Communiqué de presse de la Commission du 12 juillet 2024 : La Commission adresse des constatations préliminaires à X pour violation du règlement sur les services numériques ↑
- L’avenir nous dira si la mise en application est réellement efficace. ↑
- V. art. 28ter DSA ↑
- V. par exemple CJUE, C-679/22, 29 fév. 2024, Commission c/ Irlande. ↑
- Préc. ↑
- V. art. 42 et 42-1 de la loi de 1986, préc. ↑
- V. art. 1er SMA ↑
- Pour la répartition des compétences, v. art. 33 DSA. ↑
- Chaque Etat membre désigne un Coordinateur pour les services numériques (l’ARCOM pour la France) compétent pour prendre ces décisions. ↑
- V. art. 9 DSA ↑
- V. art. 10 DSA ↑
- V. supra ↑
- V. art. 70 DSA ↑
- Pour un exemple d’engagement acceptés par la Commission (TikTok), v. Communiqué de presse de la Commission du 4 déc. 25, La Commission accepte les engagements de TikTok en matière de transparence de la publicité au titre de la législation sur les services numériques. ↑
- V. art. 73 DSA. Pour les services de taille plus modeste, les Etats membres disposent d’un pouvoir de sanction similaire : v. art. 52 DSA ↑
- V. art. 74 DSA ↑
- La Commission a prononcée sa première amende (120 millions d’euros) dans le cadre du DSA en décembre 2025 (à l’encontre de X anciennement Twitter), v. Communiqué de presse de la Commission du 5 déc. 25, Amendes de la Commission X 120 millions d’euros au titre de la législation sur les services numériques. ↑
- V. art. 75 DSA ↑
- Pour le détail de ce type de mesures, v. art. 51, §3 DSA ↑
- V. art. 2 SMA ↑
- A l’exception des obligations d’investissement des chaînes et des SMAD pour lesquelles la directive SMA prévoit depuis 2018 que chaque pays peut exiger ces obligations des éditeurs (chaînes ou SMAD) qui proposent leurs services dans ce pays sans pour autant y être établis : v. art. 13, §2 SMA. ↑
- De puis sa modification par l’article 14 de la loi SREN du 21 mai 2024, les articles 43-2 et 42-10 de la loi de 1986 permettent néanmoins d’appliquer une partie de la loi de 1986 (respect de la dignité de la personne humaine, protection de l’enfance et de l’adolescence, sauvegarde de l’ordre public…) aux services (uniquement les SMAD et les chaînes TV et pas les PPV) établis en dehors d’Europe. Pour plus de détails, v. M. Le Roy, Modification de la loi de 1986 par la loi SREN : l’ARCOM peut maintenant s’intéresser aux chaînes de télévision et aux SMAD établis hors d’Europe, Légipresse 2024, p. 599 ↑
- V. supra ↑
- D’autres exceptions existent comme la détermination du pays où est choisie la programmation : v. art. 2, §3, b SMA ↑
- Pour un exemple en matière de communications commerciales, v. M. Le Roy, Offres d’abonnement avec publicité de Netflix et, bientôt, de Disney+ : quelle régulation ?, Légipresse 2022, p. 631 ↑
- V. supra ↑
- Directive 2010/13/UE du Parlement européen et du Conseil du 10 mars 2010 visant à la coordination de certaines dispositions législatives, réglementaires et administratives des États membres relatives à la fourniture de services de médias audiovisuels (directive «Services de médias audiovisuels») ↑
- Son efficacité sera notamment mesurée à la lumière du respect de son application par des services comme X (anciennement Twitter) qui sont a priori hostiles à ce règlement. L’abandon du la fonctionnalité TikTok Lite dans l’UE (V. supra) constitue un premier succès symbolique important illustrant l’efficacité du DSA. ↑
- Les transpositions ne peuvent certes pas aller à l’encontre de ce que prévoit la directive mais la directive SMA laisse souvent le soin à chaque Etat membre de fixer des éléments qu’elle ne prévoit pas. Chaque Etat membre est ainsi libre de fixer les sanctions qu’il souhaite en matière de régulation des chaînes et des SMAD. ↑
- L’art. 30ter de la directive SMA a mis en place un groupe des régulateurs européens pour les services de médias audiovisuels (ERGA) mais ce dernier n’est doté que de peu de pouvoirs. La transformation annoncée de l’ERGA en Comité européen pour les services de médias à partir du 8 février 2025 (v. règlement 2024/1083 du Parlement européen et du Conseil du 11 avril 2024 établissant un cadre commun pour les services de médias dans le marché intérieur et modifiant la directive 2010/13/UE (règlement européen sur la liberté des médias), JOUE 17 avr. 2024) ne changera rien sur ce point. ↑
- Régulation des programmes et des communications commerciales, dispositions fiscales et financières, supervision par le régulateur du pays visé… ↑
- Le DSA s’applique aux services qui ont un nombre de destinataires significatif dans ce pays ou qui ciblent particulièrement ce pays (v. supra). ↑
- V. art. L. 453-25 et s. & L. 454-16 et s. du Code des impositions sur les biens et services (ancien art. 1609 sexdecies B du Code général des impôts) ↑
- V. art. 13, §2 SMA ↑
- En dehors des obligations d’investissement, Netflix dépend du régulateur néerlandais et Amazon Prime Vidéo du régulateur allemand. ↑
- V. supra III ↑
- V. art. 42-1 et s. de la loi de 1986, préc. ↑
- Pour rappel (v. supra) la loi de 1986 ne prévoit pas de sanction pour les PPV. ↑
- Sur ces questions, v. M. Le Roy, Droit de l’Audiovisuel, 2e éd., 2022, ind. Pub, p. 17 et s. ↑
- V. par exemple, CE Ord., n° 277736, 3 mars 2005, Sté Eutelsat, mentionné aux tables ; CE, Ord. n° 468969, Reporters sans frontières, inédit & ARCOM, Décision mettant en demeure la société Eutelsat, 14 déc. 2022 ; ARCOM, Décision mettant en demeure Eutelsat SA, 20 décembre 2023 ↑
- Pour le détail, v. art. 43-8 de la loi de 1986 & décret n° 2021-1923 du 30 décembre 2021 relatif à la procédure de suspension provisoire de la retransmission de certains services de télévision et de médias audiovisuels à la demande et à la procédure visant à empêcher le contournement par ces services de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication, JORF n° 0304 du 31 décembre 2021, texte n° 88. ↑
- Le service doit avoir conclu une convention avec l’ARCOM (art. 42-6 de la loi de 1986 ou art. 33-1-1 pour les périodes électorales) ou le service doit « relever » de la France au sens de la loi de 1986 (v. art. 42-10). ↑
- V. par exemple, ARCOM, Préconisations relatives à la lutte contre la manipulation de l’information sur les plateformes en ligne en vue des élections au Parlement européen du 6 au 9 juin 2024, 6 mars 2024 ↑
- Les restrictions peuvent certes être contournées (notamment par l’utilisation d’un VPN) mais peu de personnes le feront. ↑
- V. infra ↑
- V. art. L. 336-2 & L. 331-27 CPI et art. L. 333-10du Code du sport ↑
- V. art. 1er de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique, JORF n°0143 du 22 juin 2004, texte n° 2 : « On entend par communication au public en ligne toute transmission, sur demande individuelle, de données numériques n’ayant pas un caractère de correspondance privée, par un procédé de communication électronique permettant un échange réciproque d’informations entre l’émetteur et le récepteur. » Les conditions de « demande individuelle » et d’« échange d’informations entre l’émetteur et le récepteur » posent question quand on en vient à parler de chaînes télévision et de SMAD disponibles via satellite ou via les services audiovisuels proposés par une box de FAI. ↑
- Les possibilités de blocage résultant d’une atteinte à un droit de propriété par exemple n’ont aucun lien avec la directive SMA. ↑
- V. Règlement (UE) 2022/350 du Conseil du 1er mars 2022 modifiant le règlement (UE) no 833/2014 concernant des mesures restrictives eu égard aux actions de la Russie déstabilisant la situation en Ukraine & Décision (PESC) 2022/351 du Conseil du 1er mars 2022 modifiant la décision 2014/512/PESC concernant des mesures restrictives eu égard aux actions de la Russie déstabilisant la situation en Ukraine ↑
- On notera néanmoins que plusieurs décisions de la CJUE ont rejeté les recours effectués contre ces décisions : TUE 27 juillet 2022, RT France c/ Conseil (T-125/22) ; TUE (Ord.), 30 mars 2022, RT France c/Conseil (T-125/22 R) ↑
- On notera au surplus qu’il reste techniquement difficile de bloquer la disponibilité de ces chaînes dans l’Union : v. par exemple M. Rees, Blocage de RT et Sputnik : les opérateurs français en attente de consignes claires, Next.ink, 7 mars 2022 ↑
- Période où « des circonstances extraordinaires entraînent une menace grave pour la sécurité publique ou la santé publique dans l’Union ou dans des parties importantes de l’Union » : v. art. 36, §2 DSA ↑
- V. Radio France, Conflit Israël – Hamas : télés et radios convoquées chez le dirlo !, 7 nov. 2023 ↑
- Sur ce point, v. M. Le Roy, Droit de l’audiovisuel, 2e éd., 2022, Ind. Pub., p. 181 et s. ↑
- V. art. 42-6 & 33-1-1 de la loi de 1986, préc. ↑
- V. supra II ↑
- V. art. 27 DSA ↑
- V. art. 38 DSA ↑
- V. supra I ↑
