Dossier spécial Legal Techs – Plateformes : une reconnaissance par le droit de leur rôle essentiel – Revue ACE n°156

Cécile CRICHTON

Doctorante en droit privé à l’Université de Paris, Institut droit et santé, UMR-INSERM 1145

Initialement considérées comme de simples intermédiaires, les plateformes ont acquis un rôle de plus en plus prépondérant. Alors que la directive « commerce électronique »1 et la jurisprudence y afférent2 ne les voyaient qu’en tant qu’hébergeurs au rôle purement technique et passif, son actuelle révision par la proposition « Digital Services Act »3 change la donne. Elle souhaite leur imposer de nouvelles obligations, allant pour les très grandes plateformes jusqu’à l’évaluation des risques systémiques importants découlant de l’utilisation de leurs services au sein de l’Union européenne4. En à peine vingt ans, certaines plateformes sont effectivement devenues « incontournables »5, à tel point que l’idée même d’établir une ambassade auprès de ces géants du numérique a été envisagée6.

Du point de vue juridique, les plateformes ont un temps conservé leur singularité résultant de leur rôle d’intermédiaire, ce qui limitait leur responsabilité. Or, la concentration d’un grand nombre de contenus, produits ou services sur leur interface engendre nécessairement de nouvelles catégories de dommages – individuels, collectifs, voire systémiques –, interrogeant sur l’opportunité d’instaurer des garde-fous. Sans nier l’avantage que les plateformes procurent, ni freiner leur potentiel innovant, l’individu et l’intérêt général doivent être préservés.

C’est ainsi que le droit s’est saisi de diverses questions propres aux plateformes. Fruits d’une véritable reconnaissance de leur rôle prépondérant, des dispositions protectrices de l’ordre économique (I) et des droits des personnes (II) ont été consacrées7.

I – Une reconnaissance du rôle des plateformes sur la libre concurrence

Les atteintes à l’économie engendrées par l’activité des plateformes résultent notamment de deux phénomènes accentuant les déséquilibres : l’opacité des algorithmes (A) affinés par l’acquisition massive de données (B).

A – Une reconnaissance des effets issus de l’opacité algorithmique

L’une des caractéristiques essentielles des plateformes réside dans l’utilisation d’algorithmes automatisant le classement et le référencement des contenus, biens ou services. Cette technologie est renforcée par une collecte massive des données fournies volontairement par des utilisateurs qui, par une analyse fine de leur comportement, rend le résultat toujours plus pertinent. Emmanuel Combe8 constate à ce titre que le coût de développement des algorithmes est largement compensé par le nombre important d’utilisateurs et de données y résultant, ce qui octroie aux plateformes un réel avantage compétitif.

Or, les effets de réseau, bien connus dans l’écosystème des plateformes, génèrent une dépendance de tous les utilisateurs, consommateurs ou professionnels. Cette dépendance favorise de la part de la partie forte des comportements déloyaux. Les mécanismes juridiques préexistants sont théoriquement bien adaptés, mais mis à mal en pratique face à la prédominance de systèmes de traitements automatisés de données, manifestés par exemple à travers un défaut de compréhension du système et grâce auxquels la plateforme peut manipuler ses algorithmes à ses propres fins9.

En effet, les systèmes utilisés par les plateformes sont protégés par le secret des affaires10. La loi favorise donc – sans que cela mérite contestation11 – l’opacité algorithmique. Pour contrebalancer cette protection, quelques obligations de transparence existent et assurent une certaine forme d’interprétabilité du raisonnement algorithmique. Ces obligations sont prévues en droit de l’Union européenne au bénéfice des professionnels12, et en droit interne au bénéfice des consommateurs13. A grands traits, ces deux régimes prévoient une obligation de révéler les principaux paramètres déterminant le classement des contenus, produits ou services sous une forme intelligible. Reste à déterminer, d’une part, la nature de ces principaux paramètres, et d’autre part, l’effectivité d’un tel régime sur l’économie, ce qui demeure incertain en l’absence de décision de justice prise sur l’un de ces fondements.

B – Une reconnaissance des effets issus de la concentration de données

L’important flux d’utilisateurs transitant sur les plateformes génère des données massives, source certaine d’un avantage compétitif. Bien que quelques décisions ponctuelles se saisissent du sujet14, le droit des pratiques anticoncurrentielles semble lacunaire dans l’appréhension de cet avantage généré par les données15. En marge de ce droit, de nouveaux dispositifs ont été envisagés afin de remédier à ce phénomène16. Quelques-uns seront successivement énumérés.

La proposition de règlement « Digital Markets Act » (DMA)17 impose un certain nombre d’obligations aux contrôleurs d’accès, c’est-à-dire les fournisseurs de services de plateforme essentiels, notamment désignés comme tels du fait des barrières à l’entrée résultant d’avantages tirés des données (art. 3, § 6, c). Parmi ces obligations figure notamment celle de s’abstenir de détourner les données générées par les entreprises utilisatrices pour créer un service concurrent au leur (6, § 1, a).

Le DMA facilite également l’accès aux données détenues par le contrôleur d’accès et fournies ou générées par l’utilisation de ses services de plateforme essentiels. Le contrôleur d’accès doit ainsi offrir gratuitement aux entreprises utilisatrices, aux tiers mandatés par elles ou aux utilisateurs finals un accès et une utilisation effectifs de ces données (art. 6, § 1, i). Inversement, la proposition de règlement « Data Act »18, favorisant « l’ouverture » des données, défend les contrôleurs d’accès au sens du DMA de bénéficier du droit d’accès et d’utilisation des données générées par l’utilisation d’un produit ou d’un service tiers (art. 5, § 2). Par cet enchevêtrement de règles, les propositions européennes rééquilibrent les avantages pouvant être tirés de la détention massive de données sans pour autant freiner l’activité des grandes plateformes.

De la même manière, les exigences de portabilité méritent d’être citées. En matière de données non personnelles, le règlement (UE) 2018/1807 du 14 novembre 2018 favorise la libre circulation des données à travers notamment l’interdiction des exigences de localisation et la portabilité des données en faveur des utilisateurs professionnels19. En présence de données à caractère personnel, la portabilité est consacrée par l’article 20 du règlement (UE) 2016/679 du 27 avril 2016 (RGPD) sous la forme d’un droit au bénéfice des personnes concernées, favorisant indirectement la libre concurrence20.

Outre le rôle important des plateformes sur l’économie, les individus sont directement susceptibles de souffrir de leurs activités. C’est la raison pour laquelle le droit s’est saisi du sujet en adoptant des dispositions protectrices pour la personne.

II – Une reconnaissance du rôle des plateformes sur les droits des personnes

Les plateformes exercent également une influence non négligeable sur l’effectivité des droits des personnes, à tel point qu’émergent des dispositions qui leur sont propres. Seront cités en exemple l’adaptation du droit à l’oubli sur les moteurs de recherche (A) et la modération de contenus sur Internet (B).

A – Une reconnaissance d’un droit à l’oubli spécifique

Les articles 17 et 21 du RGPD consacrent les droits pour une personne de s’opposer au traitement de ses données personnelles et d’en demander l’effacement. Ce « droit à l’oubli » a été adapté spécifiquement aux plateformes exploitant un moteur de recherche depuis l’arrêt Google Spain21, qui consiste pour la personne concernée, au sens du RGPD, à demander le déréférencement du lien menant au site web contenant ses données à caractère personnel.

Cette voie est parfois préférable puisque l’exercice du droit à l’effacement est limité par d’autres intérêts, comme l’exercice du droit à la liberté d’expression et d’information (art. 17, § 3, a). Pour cette hypothèse, un article de presse contenant des informations sur une personne serait susceptible de faire échec à l’exercice du « droit à l’oubli » en raison de l’intérêt de l’auteur à s’exprimer ou de l’intérêt du public à avoir accès à l’information. Par conséquent, il apparaît plus simple pour la personne de limiter l’accès au site web en cause plutôt que de se heurter à une exception en demandant la suppression pure et simple de l’article.

La demande de déréférencement s’exerce directement auprès de la plateforme, étant précisé que la réponse de cette dernière est sujette à un contrôle par le juge. En principe, le responsable de traitement, en l’occurrence la plateforme, est tenu de faciliter l’exercice des droits des personnes conformément à l’article 12, § 2 du RGPD. Néanmoins, il n’est pas tenu de satisfaire mécaniquement à chaque demande et doit donc se livrer à une appréciation. De la sorte, autant la CJUE22 que le Conseil d’Etat23 ont livré une méthodologie permettant aux plateformes d’assurer efficacement un contrôle de proportionnalité entre les intérêts en cause et de déterminer le cas échéant la portée géographique de la mesure de blocage prononcée24.

Il convient de prendre pour exemple une demande de déréférencement d’un lien renvoyant vers des « données pénales » ; données relatives aux condamnations pénales et aux infractions ou aux mesures de sûreté connexes et relevant de l’article 10 du RGPD. La CJUE considère que le responsable de traitement peut refuser la demande de la personne lorsque « ces informations se rapportent à une étape antérieure de la procédure judiciaire en cause et ne correspondent plus, compte tenu du déroulement de celle-ci, à la situation actuelle » (aff. C-136/17, pt 79). Le Conseil d’Etat ajoute que la plateforme est tenue de présenter la liste des résultats en mettant en valeur les liens renvoyant à une information à jour (req. nos 401258, 405464 et 429154). Si, en revanche, l’information est avérée, le Conseil d’Etat estime que le refus est justifié lorsque l’accès à l’information contenant la donnée litigieuse est strictement nécessaire à l’information du public, tout en fournissant un faisceau d’indices permettant d’apprécier cette nécessité (ibid.).

Ce contrôle de proportionnalité pointilleux semble contraignant pour les plateformes, ce d’autant plus si celles-ci reçoivent des demandes d’exercice du « droit à l’oubli » en grand nombre, à tel point qu’il convient de se demander si un refus systématique n’est pas une solution plus rentable pour elles. Outre ce risque, le phénomène de délégation du contrôle de proportionnalité entre différents droits et libertés fondamentaux interroge sur la déjudiciarisation des litiges.

B – Une reconnaissance d’un pouvoir de modération des contenus

L’exercice des droits des personnes concernées n’est pas le seul pan du droit où les plateformes se voient déléguer des pouvoirs de règlement des différends. Quand bien même les plateformes ne sont pas soumises à une obligation générale de surveillance des contenus stockés par elles25, des pouvoirs de modération contraignants leur incombe. Il résulte de la directive « commerce électronique » précitée, transposée par la « LCEN », que les hébergeurs sont responsables lorsqu’ils n’ont pas agi promptement pour retirer des contenus illicites qui leur auraient été signalés ou pour rendre leur accès impossible26

La question de la capacité des plateformes à modérer les contenus apparaît en filigrane. Disposant d’un pouvoir de décision sur l’appréciation d’un contenu considéré comme étant illicite, une plateforme peut choisir soit d’adopter une politique libertaire au risque de subir quelques condamnations ; ou soit d’adopter une politique restrictive – laissée parfois à des systèmes automatisés – au risque de freiner la liberté d’expression.

Récemment et à titre d’illustration, la cour d’appel de Paris a confirmé une ordonnance de référé enjoignant au réseau social Twitter de communiquer à des associations des éléments permettant d’établir la mise en œuvre de moyens suffisants concourant à la lutte contre la haine en ligne27. Se fondant sur le référé-probatoire de l’article 145 du code de procédure civile, les demandeurs avaient en l’espèce produit suffisamment d’éléments prouvant l’éventuelle carence de Twitter dans sa politique de modération.

Inversement, l’affaire « L’Origine du monde » par laquelle le compte Facebook d’une personne a été suspendu du fait de la publication du tableau de Gustave Courbet28 interroge sur le pouvoir de modération des plateformes. Outre les contenus considérés par la loi comme illicites, les plateformes peuvent restreindre la diffusion de certains contenus par leurs conditions générales d’utilisation. La morale et la décence étant des notions subjectives, la politique d’une plateforme peut être en décalage aux mœurs, à la sensibilité, d’une personne ou d’un Etat.

En réaction à ces dilemmes, la proposition de la Commission européenne « Digital Services Act »29 envisage quelques procédés assurant une meilleure transparence de la politique de modération des plateformes. Par exemple, il est proposé d’imposer aux hébergeurs de publier au moins une fois par an un rapport détaillé portant sur la modération des contenus (art. 13) et, pour les hébergeurs qualifiés de plateformes, d’autres informations devront être ajoutées à ce rapport, tel que le nombre de litiges transmis pour règlement alternatif des différends ou le nombre de suspensions de comptes faites (art. 17).

  1.  Dir. 2000/31/CE, 8 juin 2000.
  2. CJUE 23 mars 2010, aff. jtes C-236/08 à C-238/08, Google c. Louis Vuitton Malltetier, D. 2010. 885, obs. C. Manara ; ibid. 1966, obs. J. Larrieu, C. Le Stanc et P. Tréfigny-Goy ; ibid. 2011. 908, obs. S. Durrande ; Légipresse 2010. 158, comm. C. Maréchal ; RTD eur. 2010. 939, chron. E. Treppoz ; CJUE 12 juill. 2011, aff. C-324/09, L’Oréal c. eBay, D. 2011. 1965, obs. C. Manara ; ibid. 2054, point de vue P.-Y. Gautier ; ibid. 2363, obs. J. Larrieu, C. Le Stanc et P. Tréfigny-Goy ; ibid. 2012. 1228, obs. H. Gaudemet-Tallon et F. Jault-Seseke ; ibid. 2836, obs. P. Sirinelli ; Légipresse 2011. 463 et les obs. ; ibid. 465 et les obs. ; RTD eur. 2011. 847, obs. E. Treppoz.
  3. Comm. europ., 15 déc. 2020, COM(2020) 825 final, Dalloz IP/IT 2021. 217, obs. K. Favro et C. Zolinsky ; ibid. 319, obs. D. Galbois-Lehalle ; D. actu. 8 janv. 2021, nos obs.
  4. Ibid., art. 26.
  5. V. not. C. Féral-Schuhl, Cyberdroit, 8e éd., Dalloz, Praxis, 2020, no 626.12.
  6. L. Vinogradoff, Le Danemark va envoyer un « ambassadeur numérique » au pays de Google et Facebook, Lemonde.fr, 7 févr. 2017.
  7. Cette présentation sommaire n’a pas vocation à être exhaustive.
  8. E. Combe, Les plateformes : notion, enjeux et pistes d’évolution, in X. Delpech (dir.), L’émergence d’un droit des plateformes, Dalloz, Thèmes et commentaires, 2021, p. 15 s., spéc. p. 16.
  9.  V. par ex., en matière d’abus de position dominante, l’affaire Google Shopping par laquelle l’algorithme du réseau social favorisait la mise en valeur de ses propres services : Trib. UE, 10 nov. 2021, aff. T-612/17, D. actu. 22 nov. 2021, obs. F. Masmi-Dazi.
  10. Dir. (UE) 2016/943 du 8 juin 2016 ; L. no 2018-670, 30 juill. 2018 ; décr. no 2018-1126, 11 déc. 2018. – V. le dossier « Secret des affaires : la nouvelle protection juridique des actifs immatériels », Dalloz IP/IT 2018. 658 s.
  11. Le secret des affaires compensant l’incertitude générée par l’obtention hasardeuse d’un droit exclusif.
  12. Règlement « Platform to Business » (UE) 2019/1150 du 20 juin 2019, art. 5. – V. C. Castets-Renard, Régulation des plateformes en ligne, J.-Cl. Europe, fasc. 1245, nos 90-97.
  13.  C. consom., art. L. 111-7 à L. 111-8 et D. 111-6 à D. 111-19. – V. N. Sauphanor-Brouillaud, Information des consommateurs – Obligation générale d’information précontractuelle, J.-Cl. Conc. Consom., fasc. 846, nos 65-91.
  14. En matière de PAC, v. not. Bundeskartellamt, 7 févr. 2019, B6-22/16, Facebook ; Aut. conc. 22 févr. 2022, 22-D-06, EDF ; Aut. conc. 8 juill. 2014, 14-D-06, Cegedim. – En marge, utilisant les facilités essentielles, CJCE 6 avr. 1995, aff. jtes C-241/91 P et C-242/91 P, Magill ; CJCE 29 avr. 2004, aff. C-418/01, IMS Health ; TPICE 17 sept. 2007, aff. T-201/04, Microsoft.
  15. Soulignant la nécessaire complémentarité du droit de la concurrence avec d’autres droits, D. Fasquelle, Le droit de la concurrence à la croisée des chemins face à l’émergence du numérique, CCC 2019, n° 7, dossier 11. – Egal., soulignant quelques régimes alternatifs, M. Malaurie-Vignal, D. Heintz et M. Lécole, Comment appréhender les abus et l’utilisation des données dans la relation d’une plateforme avec ses partenaires contractuels ?, CCC 2020, n° 12, dossier 16.
  16. J.-C. Roda, Vers un droit de la concurrence des plateforme, in L’émergence d’un droit des plateformes, op. cit., p. 77 s.
  17.  Comm. europ., 15 déc. 2020, COM(2020) 842 final.
  18.  Comm. europ., 23 févr. 2022, COM(2022) 68 final.
  19. Sur ce texte, v. not. dossiers « La libre circulation des données non personnelles : la consécration d’un principe », Dalloz IP/IT 2020. 212 s., et « La libre circulation des données non personnelles : le contenu du principe », Dalloz IP/IT 2020. 400 s.
  20. En pratique et paradoxalement, cette disposition a eu tendance à favoriser la portabilité des données en faveur des grandes plateformes.
  21. CJUE 13 mai 2014, aff. C-131/12, AJDA 2014. 1147, chron. M. Aubert, E. Broussy et H. Cassagnabère ; D. 2014. 1476, note V.-L. Benabou et J. Rochfeld ; ibid. 1481, note N. Martial-Braz et J. Rochfeld ; AJCT 2014. 502, obs. O. Tambou ; Constitutions 2014. 218, chron. D. de Bellescize ; RTD eur. 2014. 879, étude B. Hardy.
  22.  CJUE 24 sept. 2019, aff. C-136/17, GC, AF, BH, ED c. CNIL et aff. C-507/17, Google c. CNIL, D. actu. 27 sept. 2019, obs. N. Maximin ; AJDA 2019. 1839 ; ibid. 2291, chron. P. Bonneville, C. Gänser et S. Markarian ; D. 2019. 2022, note J.-L. Sauron ; Dalloz IP/IT 2019. 631, obs. N. Martial-Braz ; Légipresse 2019. 515 et les obs.
  23. Sur le fond : CE 6 déc. 2019, req. nos 391000, 393769, 395335, 397755, 399999, 401258, 403868, 405464, 405910, 407776, 409212, 423326 et 429154, D. actu. 24 déc. 2019, nos obs. – Sur la portée territoriale : CE 27 mars 2020, req. n° 399922, Lebon ; D. 2020. 767 ; D. actu. 6 avr. 2020, nos obs.
  24. V. T. Douville, Les variations du droit au déréférencement, D. 2020. 515.
  25.  Dispositions à destination des hébergeurs : Dir. 2000/31/CE du 8 juin 2000, art. 15 ; L. n° 2004-575 du 21 juin 2004, art. 6, I, 7.
  26. Not. L. n° 2004-575 du 21 juin 2004, art. 6, I, 2.
  27. Paris, 20 janv. 2022, n° 21/14325, Legipresse 2022. 74 ; D. actu. 27 janv. 2022, nos obs.
  28. Paris, 12 févr. 2016, n° 15/08624, D. 2016. 1045, obs. H. Gaudemet-Tallon et F. Jault-Seseke ; D. 2016. 2141, obs. J. Larrieu, C. Le Stanc et P. Tréfigny ; D. 2017. 539, obs. H. Aubry, E. Poillot et N. Sauphanor-Brouillaud ; Dalloz IP/IT 2016. 214, obs. S. André et C. Lallemand ; RTD civ. 2016. 310, obs. L. Usunier.
  29. Comm. europ., 15 déc. 2020, COM(2020) 825 final, préc.

Plus d’articles