Obowiązki dostawców platform internetowych w świetle projektu Aktu o usługach cyfrowych (Digital Services Act)
Niniejszy artykuł stanowi część publikacji pt. „Akt o usługach cyfrowych. Kompendium”, która w całości poświęcona została omówieniu założeń projektu Aktu o usługach cyfrowych.
Potrzeba szczególnej regulacji platform internetowych
Szczególną kategorię dostawców usług pośrednich stanowią platformy internetowe. Są one adresatami szeregu dodatkowych obowiązków określonych w rozdziale III i IV projektu Aktu o usługach cyfrowych[1] (dalej: „AUC”). Potrzeba wprowadzenia tych przepisów jest ściśle związana z wpływem świadczonych przez platformy usług na sposób funkcjonowania społeczeństwa i gospodarki. Stały się one bowiem centralnym miejscem wymiany i kształtowania poglądów społecznych i politycznych, a także prowadzenia działalności gospodarczej – stąd wynika konieczność wprowadzenia rozwiązań prawnych limitujących ryzyka związane z funkcjonowaniem platform.
Pojęcie „platformy internetowej” na gruncie projektu Aktu o usługach cyfrowych
Definicja legalna „platformy internetowej” zawarta została w art. 2 lit. h projektu AUC. Zgodnie z tą definicją platformę internetową należy rozumieć jako „dostawcę usługi hostingu, który na żądanie odbiorcy usługi przechowuje i rozpowszechnia publicznie informacje, chyba że takie działanie jest nieznaczną i wyłącznie poboczną funkcją innej usługi, i ze względów obiektywnych i technicznych nie można go wykorzystać bez takiej innej usługi, a włączenie takiej funkcji w taką inną usługę nie jest sposobem na obejście stosowania niniejszego rozporządzenia”.
Usługa „platformy internetowej” musi mieć charakter usługi społeczeństwa informacyjnego (art. 2 lit. a). Przesądza to o braku stosowania się przepisów AUC do tych usług pośrednictwa, które częściowo wymagają korzystania z Internetu, ale jednocześnie są nierozerwalnie związane z innymi usługami świadczonymi offline (np. usługą przewozową). Aktualne w tym zakresie pozostają tezy orzeczenia Trybunału Sprawiedliwości Unii Europejskiej (TSUE) w sprawie Asociación Profesional Elite Taxi vs. Uber Systems Spain (C-434/15).
Każda usługa platformy internetowej jest równocześnie usługą hostingu w rozumieniu art. 5 projektu AUC, a więc usługą polegającą na przechowywaniu, na żądanie usługobiorcy, cudzych treści. Tym, co ją odróżnia od tych usług, jest dodatkowy element publicznego rozpowszechniania tych treści. Wskazówki odnośnie do tego, jak należy rozumieć ten element, zawarte zostały w motywach nr 13 i 14 projektu AUC. W motywie nr 13 w szczególności wyjaśniono, że: „dostawców usług hostingu nie należy uznawać za platformy internetowe, w przypadku gdy publiczne rozpowszechnianie jest zaledwie nieznaczną i wyłącznie poboczną funkcją innej usługi, której to funkcji z obiektywnych względów technicznych nie można wykorzystywać bez tej innej głównej usługi, a włączenie takiej funkcji nie jest sposobem na obejście stosowania przepisów niniejszego rozporządzenia mających zastosowanie do platform internetowych”.
Jako przykład takiej sytuacji wskazano internetowe wydanie gazety, w ramach której wydzielona jest sekcja gazety internetowej przeznaczona na komentarze i w przypadku której jest oczywiste, że ma ona charakter poboczny w stosunku do głównej usługi, jaką jest publikowanie wiadomości, za które odpowiedzialność redakcyjną ponosi wydawca. Z kolei w motywie nr 14 wskazano, że pojęcie „publicznego rozpowszechniania” powinno obejmować udostępnianie informacji potencjalnie nieograniczonej liczbie osób, a więc polegać na zapewnieniu łatwego dostępu do informacji ogółowi użytkowników bez konieczności podejmowania dalszych działań przez odbiorcę usługi, tj. użytkownika korzystającego z danej usługi pośredniej. Z tych przyczyn przepisami AUC nie będą objęci dostawcy usług komunikacji elektronicznej w rozumieniu art. 2 pkt 5 dyrektywy UE nr 2018/1972[2]. Dotyczy to w szczególności dostawców takich usług jak poczta elektroniczna, komunikatory internetowe czy usługi chat groups.
Podsumowując powyższe wywody, spośród dostępnych w Internecie różnego rodzaju platform, nowymi przepisami Aktu o usługach cyfrowych objęte będą: serwisy społecznościowe (social networks), internetowe platformy handlowe (online marketplaces), internetowe sklepy z aplikacjami (app store), różnego rodzaju platformy wymiany treści (content sharing platforms), a także serwisy online umożliwiające np. zakup usług turystycznych lub wynajem lokali od osoby prywatnych (online travel and accommodation platforms).
Kategorie platform internetowych i zakres ich obowiązków
Zastosowanie poszczególnych obowiązków określonych w projekcie Aktu o usługach cyfrowych zależne jest od wielkości danej platformy internetowej (zasada proporcjonalności). Mając na względzie to kryterium, platformy internetowe można podzielić na trzy podstawowe kategorie:
- platformy, które kwalifikują się jako mikroprzedsiębiorstwa lub małe przedsiębiorstwa w rozumieniu załącznika do zalecenia 2003/361/WE (art. 16 AUC);
- „zwykłe” platformy, do których stosują się dodatkowe – w stosunku do usługi hostingu – obowiązki (art. 17 i n. AUC);
- „bardzo duże platformy internetowe” (art. 25 i n. AUC).
Zgodnie z zaleceniem Komisji Europejskiej z dnia 6 maja 2003 r. w sprawie definicji mikroprzedsiębiorstw oraz małych i średnich przedsiębiorstw (Dz.U. L 124 z 20.05.2003, s. 36–41) poprzez mikroprzedsiębiorstwo należy rozumieć przedsiębiorstwo zatrudniające mniej niż 10 osób, którego roczny obrót i/lub roczna suma bilansowa nie przekracza 2 mln EUR (art. 2 ust. 3), a poprzez małe przedsiębiorstwo – przedsiębiorstwo zatrudniające mniej niż 50 osób, którego roczny obrót i/lub roczna suma bilansowa nie przekracza 10 mln EUR (art. 2 ust. 2 lit. c). Znaczenie prawne wyróżnienia tego rodzaju platform polega na ich wyłączeniu (art. 16) z dodatkowych obowiązków dotyczących „zwykłych” platform internetowych. Obowiązki te określono w sekcji 3 rozdziału III projektu AUC.
Znaczenie normatywne „bardzo dużych platform internetowych” wyraża się z kolei w obowiązku spełnienia dodatkowych, w stosunku do „zwykłych” platform, obowiązków określonych w sekcji 4 rozdziału III projektu AUC. Przez platformy tego rodzaju rozumieć należy „platformy internetowe, które świadczą usługi na rzecz średniej liczby aktywnych odbiorców usługi w Unii Europejskiej miesięcznie wynoszącej co najmniej 45 mln osób, obliczonej zgodnie z metodyką określoną w aktach delegowanych wydanych przez Komisję Europejską” (art. 25 ust. 1).
W świetle powyższych uwag spoczywające na dostawcach usług obowiązki określone przepisami projektu AUC przedstawić można jako pewnego rodzaju piramidę. Dostawcy usług znajdujących się na poszczególnych poziomach piramidy powinni bowiem spełnić obowiązki określone dla niższych poziomów, a także dodatkowo właściwe dla nich.
W związku z powyższym platformy mające charakter „mikroprzedsiębiorców” oraz „małych przedsiębiorców” powinny spełnić obowiązki określone w:
- rozdziale II AUC („odpowiedzialność dostawców usług pośrednich”);
- sekcjach 1–2 rozdziału III AUC („obowiązki mające zastosowanie do wszystkich dostawców usług pośrednich”, „dodatkowe przepisy mające zastosowanie do usług hostingu, w tym dostawców usług platform internetowych”).
Dostawcy „zwykłych” platform internetowych powinni spełnić obowiązki określone w:
- rozdziale II i sekcjach 1–2 rozdziału III AUC;
- sekcji 3 rozdziału III AUC („dodatkowe przepisy mające zastosowanie do platform internetowych”).
„Platformy o bardzo dużym znaczeniu” powinny natomiast spełnić obowiązki określone w:
- rozdziale II i sekcjach 1–3 rozdziału III AUC;
- sekcji 4 rozdziału III AUC („dodatkowe obowiązki w zakresie zarządzania ryzykiem systemowym przez bardzo duże platformy internetowe”).
Obowiązki „zwykłych” platform internetowych
Określone w projekcie Aktu o usługach cyfrowych obowiązki „zwykłych” platform internetowych, a więc platform niekwalifikujących się jako mikroprzedsiębiorstwa lub małe przedsiębiorstwa, podzielić można na cztery podstawowe grupy:
- obowiązki związane z moderowaniem treści umieszczanych na platformach;
- obowiązki dotyczące przejrzystości funkcjonowania internetowych platform handlowych;
- obowiązki dotyczące przejrzystości reklam internetowych;
- obowiązki sprawozdawcze platform internetowych.
Obowiązki platform internetowych dotyczące moderowania treści
Wprowadzone w projekcie AUC obowiązki związane z moderowaniem treści[3] mają na celu osiągnięcie dwóch podstawowych celów: po pierwsze zwalczanie zjawiska rozpowszechniania nielegalnych treści i informacji o nielegalnych działaniach, a po drugie eliminację ograniczeń w wyrażaniu opinii przez użytkowników (obywateli). Ustanowione w projekcie AUC środki mają służyć w szczególności zwiększeniu możliwości dochodzenia roszczeń przez użytkowników, w sytuacji gdy nielegalne treści naruszają ich prawa. Ograniczeniu ma również ulec ryzyko błędnego lub nieuzasadnionego blokowania wypowiedzi, dojść ma także do złagodzenia tzw. efektu mrożącego (chilling efect), a więc sytuacji, gdy zagrożenie konsekwencjami prawnymi stanowi blokadę do korzystania z prawa wyrażania swoich poglądów przez użytkowników.
Zgodnie z projektem AUC użytkownicy powinni mieć możliwość łatwego i skutecznego kwestionowania decyzji platform internetowych, które mają na tych użytkowników negatywny wpływ. Chodzi w szczególności o decyzje o:
- usunięciu informacji lub uniemożliwieniu dostępu do nich;
- zawieszeniu lub zakończeniu świadczenia usługi na rzecz użytkowników;
- zawieszeniu lub usunięciu konta użytkowników.
Podstawą podjęcia takich decyzji może być domniemany nielegalny charakter treści lub ich niezgodność z warunkami korzystania z usług określonymi przez dostawcę platformy (art. 17 ust. 1).
W związku z powyższym na platformy nałożony będzie obowiązek zapewnienia wewnętrznego systemu rozpatrywania skarg wniesionych w odniesieniu do wyżej wymienionych decyzji (art. 17 ust. 1–4). System ten ma być „łatwo dostępny i przyjazny dla użytkowników” (art. 17 ust. 2), a rozstrzygnięcia nie mogą być podejmowane wyłącznie na podstawie zautomatyzowanych środków (art. 17 ust. 5). Na platformy internetowe nałożony również zostanie obowiązek współpracy z certyfikowanymi organami pozasądowego rozstrzygania sporów w celu rozwiązywania wszelkich sporów z użytkownikami ich usług (art. 18 ust. 1). Certyfikacji tych organów dokonuje koordynator ds. usług cyfrowych (art. 18 ust. 2), a decyzje wydane przez ten organ będą wiążące dla platform (art. 18 ust. 1). Określone w projekcie AUC możliwości odwołania się od decyzji platform internetowych nie naruszają przy tym prawa użytkownika do skorzystania z innych środków zaskarżenia przewidzianych w danym państwie członkowskim (np. środków zaskarżenia przed sądami powszechnymi).
Z procesem moderowania treści bezpośrednio związany jest obowiązek zapewnienia priorytetowego traktowania zgłoszeń składanych przez podmioty, którym przyznano status zaufanych podmiotów sygnalizujących – tzw. trusted flaggers (art. 19). Taki status, na wniosek zainteresowanego podmiotu, przyznawać ma koordynator ds. usług cyfrowych. Odrębnym obowiązkiem jest wymóg informowania przez platformy internetowe właściwych organów ścigania w razie uzyskania informacji dającej podstawę do podejrzenia „poważnych przestępstw”, które mogą stanowić zagrożenie dla życia lub bezpieczeństwa osób (art. 21). Wymóg ten ma się aktualizować zarówno w przypadku otrzymania zgłoszenia od użytkowników, jak i w sytuacji, gdy to sama platforma – w związku z prowadzoną przez nią działalnością – poweźmie taką informację. W projekcie AUC wyraźnie jednak podkreślono, że ustanowiony w art. 21 obowiązek nie może stanowić podstawy prawnej profilowania odbiorców usług w celu możliwego identyfikowania przestępstw przez platformy internetowe[4].
W projekcie AUC ustanowiono również obowiązek wprowadzenia odpowiednich środków przeciwko niewłaściwemu korzystaniu z platformy oraz ochrony przed niewłaściwym korzystaniem z systemu „zgłaszania i działania” (art. 20). W przepisie tym chodzi o dwie odrębne grupy przypadków. Po pierwsze – częste przekazywanie na platformie ewidentnie nielegalnych treści (art. 20 ust. 1). Po drugie – częste składanie ewidentnie bezzasadnych zgłoszeń lub skarg w ramach mechanizmów „zgłaszania i działania” oraz „wewnętrznych systemów skarg” ustanowionych przez platformy na podstawie przepisów AUC (art. 20 ust. 2). Jako sankcje za tego typu działania w projekcie AUC przewidziano możliwość, po dokonaniu uprzedniego ostrzeżenia, zawieszenia przez platformę internetową świadczenia usług (art. 20 ust. 1) lub zawieszenia przetwarzania zgłoszeń lub skarg złożonych za pośrednictwem mechanizmów „zgłaszania i działania” (art. 20 ust. 2). Równocześnie platformy internetowe zobowiązane zostały do określenia w warunkach (regulaminie) korzystania z usług swojej polityki (zasad) dotyczącej niewłaściwego korzystania, w tym w zakresie faktów i okoliczności, które będą uwzględniać przy ocenie tego, czy dana praktyka stanowi niewłaściwe korzystanie, a także w odniesieniu do okresu zawieszenia (art. 20 ust. 4).
Obowiązki dotyczące przejrzystości funkcjonowania internetowych platform handlowych
Jednym z głównych celów projektu AUC jest przyczynienie się do tworzenia bezpiecznego, godnego zaufania i przejrzystego środowiska internetowego dla konsumentów, m.in. poprzez „zniechęcenie przedsiębiorców do sprzedawania produktów lub usług z naruszeniem właściwych przepisów”[5].
Osiągnięciu powyższego celu służą dwie grupy obowiązków. Po pierwsze – obowiązek blokowania sprzedaży nielegalnych towarów lub usług umieszczonych na platformie, względnie blokowania reklam, które promują działalność polegającą na sprzedaży tych towarów lub usług. Działania te odbywać się powinny zgodnie z zasadami dotyczącymi usuwania nielegalnych treści. Po drugie – platformy internetowe, poprzez które konsumenci zawierają z przedsiębiorcami umowy na odległość, powinny zapewniać identyfikowalność takich przedsiębiorców. Stanowi to realizację zasady „know your business customer”. W jej wykonaniu platformy internetowe będą musiały identyfikować swoich użytkowników biznesowych i wyjaśniać, kto sprzedaje dany produkt lub oferuje usługę. Ma to pomóc w wykrywaniu nieuczciwych podmiotów gospodarczych i chronić kupujących w Internecie przed nielegalnymi produktami, w tym towarami podrobionymi i niebezpiecznymi.
W związku z powyższym przedsiębiorcy korzystający z usług platformy internetowej powinni zostać zobowiązani do przekazywania platformie informacji, których zakres określono w art. 22 ust. 1. Dodatkowo platformy zobowiązano do „rozsądnych”, tj. bez nieproporcjonalnych obciążeń, działań w celu weryfikacji wiarygodności tych informacji (art. 22 ust. 2 i 3 AUC). Działania takie mogą w szczególności przybrać formę „wykorzystania ogólnodostępnych oficjalnych internetowych baz danych i interfejsów internetowych, takich jak krajowe rejestry handlowe i system wymiany informacji o VAT”[6]. Innym sposobem jest zwrócenie się do zainteresowanych przedsiębiorców o dostarczenie wiarygodnych dokumentów potwierdzających przekazane informacje, „takich jak kopie dokumentów tożsamości, uwierzytelnione wyciągi bankowe, zaświadczenia o prowadzeniu działalności gospodarczej i zaświadczenia z rejestrów handlowych”[7]. Równocześnie jednak w projekcie AUC podkreślono, że te działania weryfikacyjne nie oznaczają powinności platform internetowych objętych tym obowiązkiem, aby angażowały się w nadmierne lub kosztowne działania z tym związane. Przeprowadzenie tej weryfikacji nie może być również traktowane jako gwarancja wiarygodności informacji skierowanych do konsumentów lub innych zainteresowanych stron przez przedsiębiorców korzystających z usług danej platformy.
W uzupełnieniu powyższych uwag należy jeszcze dodać, że na platformy zostały nałożone obowiązki w zakresie przechowywania informacji dotyczących przedsiębiorców korzystających z ich usług przez okres trwania stosunku umownego z danym przedsiębiorcą (art. 22 ust. 4) oraz w zakresie zaprojektowania i zorganizowania interfejsów internetowych, tak aby umożliwiały one przedsiębiorcom przestrzeganie unijnego prawa ochrony konsumentów i unijnych przepisów dotyczących bezpieczeństwa produktów (art. 22 ust. 7).
Obowiązki dotyczące przejrzystości reklam internetowych
W przypadku gdy reklama internetowa stanowi nielegalną treść lub promuje działalność tego rodzaju, zastosowanie znajduje procedura „zgłaszania i działania” (art. 14 i n.).
W art. 24 projektu AUC ustanowiono dodatkowe wymogi realizujące zasadę przejrzystości w odniesieniu do reklamy internetowej. Polegają one na zobowiązaniu platform internetowych do zapewnienia użytkownikom określonych zindywidualizowanych informacji niezbędnych do zrozumienia, kiedy i w czyim imieniu wyświetlana jest reklama. Ponadto odbiorcy usługi powinni dysponować informacjami na temat głównych parametrów wykorzystywanych do określenia, czy dane reklamy powinny być im wyświetlane, stanowiących zrozumiałe wyjaśnienie stojącej za tym logiki, również w przypadku gdy reklamy są wyświetlane na podstawie profilowania (art. 24 projektu AUC).
Platformy internetowe będą musiały przekazywać w czasie rzeczywistym, w odniesieniu do poszczególnych reklam i użytkowników, informacje identyfikujące reklamy jako takie, wskazujące, w czyim imieniu zostały one wyświetlone, a także „istotne informacje” na temat głównych parametrów stosowanych do kierowania reklam do użytkownika.
Obowiązki sprawozdawcze
Mając na względzie wprowadzenie w projekcie AUC szeregu dodatkowych obowiązków dla platform internetowych, ustanowiono odpowiadające im obowiązki sprawozdawcze (art. 23). Są one niezależne od obowiązków tego rodzaju określonych w art. 13 projektu. Platformy internetowe mają być w szczególności zobowiązane do publikowania sprawozdań ze swoich działań związanych z usuwaniem i uniemożliwianiem dostępu do informacji uznawanych za nielegalne treści lub treści sprzeczne z warunkami korzystania z ich usług, a także wiążących się z zawieszaniem świadczenia usług w związku z niewłaściwym korzystaniem z platformy lub niewłaściwym korzystaniem z systemu „zgłaszania i działania” (art. 23 ust. 1).
Dodatkowo platformy internetowe co najmniej raz na sześć miesięcy mają publikować informacje na temat średniej liczby aktywnych odbiorców usługi miesięcznie w każdym państwie Unii Europejskiej (art. 23 ust. 2). Dane te m.in. mają umożliwić koordynatorowi ds. usług cyfrowych wydanie lub weryfikację decyzji o uznaniu danej platformy internetowej za bardzo dużą platformę internetową w rozumieniu przepisów AUC (art. 25 ust. 4).
Obowiązki bardzo dużych platform internetowych
Działalność bardzo dużych platform internetowych może powodować zagrożenia społeczne, których zakres i skutki są potencjalnie znacznie istotniejsze niż w przypadku mniejszych platform. Platformy te powinny zatem spełniać podwyższony standard obowiązków w zakresie należytej staranności, proporcjonalnie do wpływu na życie społeczne i gospodarcze oraz do środków, jakimi dysponują.
Określone w projekcie AUC obowiązki „bardzo dużych platform internetowych” podzielić można na pięć podstawowych grup:
- obowiązki dotyczące zarządzania ryzykiem systemowym wynikającym z funkcjonowania bardzo dużych platform;
- obowiązki związane z systemami rekomendacji;
- dodatkowe wymogi dotyczące przejrzystości reklam internetowych;
- zasady dostępu do danych i kontroli danych;
- obowiązek ustanowienia pracowników ds. zgodności z prawem (compliance officers).
Zarządzanie ryzykiem systemowym bardzo dużych platform internetowych
Bardzo duże platformy internetowe muszą w pierwszej kolejności dokonać oceny ryzyk systemowych wymienionych w art. 26 ust. 1 projektu AUC, z uwzględnieniem specyfiki świadczonych przez nich usług, tj.:
- ryzyka związanego z niewłaściwym korzystaniem z ich usług poprzez rozpowszechnianie nielegalnych treści, np. nawołujących do nienawiści, a także prowadzeniem nielegalnej działalności, takiej jak sprzedaż produktów lub usług zakazanych prawem Unii lub prawem krajowym, w tym produktów podrobionych – przykładem ryzyka systemowego tego rodzaju jest istotne zwiększenie skali rozpowszechniania nielegalnych treści / prowadzenia nielegalnej działalności poprzez wykorzystanie kont danej platformy;
- ryzyka wpływu usługi na wykonywanie praw podstawowych, w tym wolności wypowiedzi i informacji, prawa do życia prywatnego, prawa do niedyskryminacji i praw dziecka – takie ryzyko może wystąpić np. w związku ze strukturą algorytmów wykorzystywanych przez bardzo dużą platformę internetową lub wskutek niewłaściwego korzystania z usług takiej platformy polegającego na składaniu zgłoszeń stanowiących nadużycie;
- ryzyka celowej i często skoordynowanej manipulacji usługami platformy, która ma przewidywalny wpływ na zdrowie, dyskurs obywatelski, procesy wyborcze, bezpieczeństwo publiczne i ochronę małoletnich, z uwzględnieniem potrzeby ochrony porządku publicznego, ochrony prywatności i zwalczania nielegalnych i zwodniczych praktyk handlowych – ryzyko takie może powstać np. w wyniku zakładania fałszywych kont, korzystania z botów oraz innych zautomatyzowanych lub częściowo zautomatyzowanych zachowań, które mogą prowadzić do szybkiego i szerokiego rozpowszechniania informacji stanowiących nielegalne treści lub treści niezgodne z warunkami korzystania z usług platformy internetowej[8].
Dokonanie oceny ryzyk systemowych pozwala z kolei na dobór odpowiednich i proporcjonalnych środków zmniejszających to ryzyko (risk based approach). Rodzaje środków, jakie powinny zostać podjęte, wymienione zostały w art. 27 ust. 1 projektu AUC.
Istotnym elementem zarządzania ryzykiem systemowym bardzo dużych platform jest również zewnętrzna kontrola w postaci niezależnego audytu. Zasady jego wykonywania określone zostały w art. 28 projektu AUC.
Obowiązki związane z systemami rekomendacji
Podstawową częścią działalności bardzo dużej platformy internetowej jest sposób szeregowania i prezentowania informacji, aby ułatwić i zoptymalizować dostęp do nich użytkownikom. Odbywa się to np. poprzez algorytmiczne sugerowanie, plasowanie i szeregowanie informacji, wyróżnianie za pomocą tekstu lub innych przedstawień graficznych lub selekcjonowanie informacji przekazywanych przez odbiorców w inny sposób. Takie systemy rekomendacji mogą mieć znaczący wpływ na zdolność użytkowników do pozyskiwania informacji w Internecie i interakcji z nimi. W związku z tym bardzo duże platformy internetowe powinny zapewniać, aby użytkownicy byli – w warunkach korzystania z usługi – odpowiednio poinformowani i mieli wpływ na prezentowane im informacje. Powinny one przedstawiać główne parametry takich systemów rekomendacji w jasny, łatwo zrozumiały i dostępny sposób, aby odbiorcy rozumieli, w jaki sposób szeregowane są przedstawiane im informacje. Platformy takie powinny również zapewnić odbiorcom możliwość korzystania z alternatywnych wariantów w odniesieniu do głównych parametrów, w tym wariantów, które nie są oparte na profilowaniu odbiorcy. W związku z tym, gdy takie platformy będą rekomendować treści, użytkownicy będą mogli modyfikować stosowane kryteria i zrezygnować z otrzymywania spersonalizowanych rekomendacji (art. 29 ust. 1 i n.).
Dodatkowe wymogi dotyczące przejrzystości reklam internetowych
W przypadku bardzo dużych platform internetowych wprowadzono dodatkowe wymogi pozwalające na nadzór nad sposobem wyświetlania reklam. Platformy te będą musiały utrzymywać i zapewniać dostęp do repozytoriów reklam, umożliwiając naukowcom, organom nadzoru oraz użytkownikom sprawdzenie, w jaki sposób reklamy były wyświetlane i jak były ukierunkowane (targetowane). Ma to na celu m.in. badania i nadzór nad pojawiającymi się zagrożeniami wynikającymi z rozpowszechniania reklam w Internecie, np. w odniesieniu do nielegalnych reklam lub technik manipulacyjnych i dezinformacji.
Bardzo duże platformy internetowe powinny zapewniać, za pomocą swoich interfejsów, publiczny dostęp do repozytoriów wyświetlanych przez nie reklam. Repozytoria powinny zawierać treść reklam i związane z nimi dane dotyczące reklamodawcy i dostarczania reklam (art. 30 ust. 1). W repozytorium nie mogą jednak znaleźć się dane osobowe użytkowników, którym reklama była wyświetlana.
Publicznie dostępne repozytoria reklam będą musiały być utrzymywane przez co najmniej rok od ostatniego wyświetlenia i powinny zawierać informacje obejmujące – oprócz powyższych – treść reklamy, okres, w którym reklama była wyświetlana, liczbę docelowych odbiorców oraz liczbę odbiorców, do których dotarła (art. 30 ust. 1 i 2).
Zasady dostępu do danych i kontroli danych
Na uzasadniony wniosek koordynatora ds. usług cyfrowych lub Komisji Europejskiej bardzo duże platformy internetowe będą musiały dostarczyć dane niezbędne do monitorowania zgodności ich funkcjonowania z przepisami AUC (art. 31 ust. 1). Obowiązek ten obejmować będzie np. dane potrzebne do oceny ryzyka i możliwych szkód powodowanych przez systemy platformy, dane dotyczące dokładności, funkcjonowania i testowania systemów algorytmicznych służących do moderowania treści, systemów rekomendacji lub systemów reklamowych lub dane dotyczące procesów i wyników moderowania treści lub wewnętrznych systemów rozpatrywania skarg w ramach procedury stworzonej na podstawie projektu AUC.
Wyżej wymienione organy mogą wnioskować nie tylko o dostęp do danych dla siebie, lecz także o udostępnienie takich danych zweryfikowanym badaczom akademickim (art. 31 ust. 2 i 4).
W projekcie AUC przewidziano możliwość zwrócenia się przez bardzo duże platformy internetowe do organów o zmianę ich wniosków w przypadku braku dostępu do danych lub gdy udostępnienie takich danych prowadziłoby do znacznego zagrożenia bezpieczeństwa ich usług lub ochrony informacji poufnych. W takim przypadku organy będą musiały zaproponować alternatywne sposoby (art. 31 ust. 5).
Obowiązek ustanowienia pracowników ds. zgodności z prawem (compliance officers)
Szczególnym obowiązkiem bardzo dużych platform internetowych jest wyznaczenie co najmniej jednego pracownika ds. zgodności z prawem (compliance officer), odpowiedzialnego za monitorowanie zgodności z przepisami AUC (art. 32 ust. 1).
Pracownicy spełniający wyżej wymienioną funkcję powinni cechować się określonymi kwalifikacjami i wiedzą (art. 32 ust. 2) oraz mieć zapewnioną niezależność wykonywania swojej funkcji (art. 32 ust. 4). W projekcie AUC określono również zadania, które powinni spełniać (art. 32 ust. 3).
[1] Projekt Rozporządzenia Parlamentu Europejskiego i Rady w sprawie jednolitego rynku usług cyfrowych (akt o usługach cyfrowych) i zmieniające dyrektywę 2000/31/WE; COM(2020) 825 final; https://eur-lex.europa.eu/legal-content/PL/TXT/HTML/?uri=CELEX:52020PC0825&from=en (dalej jako: „Akt o usługach cyfrowych”, „Digital Services Act”, „DSA” lub „AUC”) (dostęp: 7.06.2021).
[2] Dyrektywa Parlamentu Europejskiego i Rady (UE) 2018/1972 z dnia 11 grudnia 2018 r. ustanawiająca Europejski kodeks łączności elektronicznej.
[3] Moderowanie treści oznacza „działania podejmowane przez dostawców usług pośrednich, których celem jest wykrywanie, identyfikowanie i zwalczanie nielegalnych treści lub informacji niezgodnych z ich warunkami korzystania z usług przekazywanych przez odbiorców usługi, w tym wdrażane środki, które wpływają na dostępność, widoczność i osiągalność takich nielegalnych treści lub informacji, takie jak nieeksponowanie takich treści lub informacji, uniemożliwienie dostępu do nich lub ich usunięcie, lub które wpływają na możliwość przekazywania takich informacji przez odbiorców, takie jak usunięcie lub zawieszenie konta odbiorcy” (art. 2 lit. p) projektu AUC).
[4] Motyw nr 48 projektu AUC.
[5] Motyw nr 49 projektu AUC.
[6] Motyw nr 50 projektu AUC.
[7] Motyw nr 50 projektu AUC.
[8] Motyw nr 57 projektu AUC.