Европейски съюз
1 юли 2023 г. – 31 декември 2023 г.

Издаден на:

25 април 2024 г.

Актуализиран на:

25 април 2024 г.

Добре дошли в нашата страница за прозрачност в Европейския съюз (ЕС), където публикуваме специфична за ЕС информация, изисквана от Закона за цифровите услуги (DSA), Директивата за аудиовизуалните медийни услуги (AVMSD) и Закона за медиите в Нидерландия (DMA). Моля, обърнете внимание, че най-актуалната версия на тези доклади за прозрачност може да бъде намерена в локалната версия en-US.

Правен представител 

Snap Group Limited е назначила Snap B.V. за свой законен представител за целите на DSA. Можете да се свържете с представителя на адрес dsa-enquiries [at] snapchat.com за DSA, на адрес vsp-enquiries [at] snapchat.com за AVMSD и DMA, чрез нашия сайт за поддръжка [тук] или на:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, The Netherlands

Ако сте правоприлагаща агенция, моля, следвайте описаните стъпки тук. Когато се свързвате с нас, говорете на нидерландски или английски език.

Регулаторни органи

По отношение на DSA ние подлежим на регулиране от Европейската комисия и от Нидерландския орган за потребителите и пазарите (ACM). По отношение на AVMSD и DMA дейността ни се регулира от Нидерландския медиен орган (CvdM).

Доклад за прозрачност на DSA

По силата на членове 15, 24 и 42 от DSA Snap е задължена да публикува доклади, съдържащи предписана информация относно модерирането на съдържанието на Snap за услугите на Snapchat, които се считат за „онлайн платформи“, т.е. Spotlight, За вас, Публични профили, Карти, Лещи и Реклама. Този доклад трябва да се публикува на всеки 6 месеца, считано от 25 октомври 2023 г.

Snap публикува доклади за прозрачност два пъти годишно, за да предостави информация за усилията на Snap в областта на безопасността, както и за естеството и обема на съдържанието, докладвано в нашата платформа. Последният ни доклад за втората половина на 2023 г. (1 юли- 31 декември) можете да намерите тук. Показателите, специфични за Закона за цифровите услуги, можете да намерите на тази страница.

Среден месечен брой активни получатели 
(членове 24.2 и 42.3 от DSA)

Към 31 декември 2023 г. имаме 90,9 милиона средномесечни активни получатели („AMAR“) на нашето приложение Snapchat в ЕС. Това означава, че средно за последните 6 месеца 90,9 милиона регистрирани потребители в ЕС са отваряли приложението Snapchat поне веднъж през даден месец.

Тази цифра се разпределя по държави членки, както следва:

Тези данни са изчислени в съответствие с действащите правила на DSA и трябва да се използват само за целите на DSA. Променихме начина, по който изчисляваме тази цифра с времето, включително в отговор на промяната на вътрешната политика, указанията на регулаторните органи и технологиите, а данните не са предназначени за сравнение между периодите. Това може да се различава и от изчисленията, използвани за други данни за активните потребители, които публикуваме за други цели.


Искания на органите на държавите членки
(DSA Член 15.1, буква а))

Искания за изтегляне 

През този период сме получили 0 искания за изтегляне от държави-членки на ЕС съгласно член 9. 

Искания за информация 

През този период сме получили следните искания за информация от държави-членки на ЕС съгласно член 10:

Средното време за информиране на властите за получаването на заявки за информация е 0 минути – ние предоставяме автоматизиран отговор, потвърждаващ заявката. Средното време за изпълнение на исканията за информация е ~10 дни. Тази мярка отразява периода, от когато Snap получи ИИ до когато Snap сметне, че искането е напълно разрешено. В някои случаи продължителността на този процес зависи отчасти от скоростта, с която правоприлагащите органи отговарят на всички искания за изясняване на Snap, необходими за обработката на искането.

Модерация на съдържанието 


Цялото съдържание в Snapchat трябва да се съобразява с нашите Насоки на Общността и Условия на ползване, както и с допълнителните условия, насоки и обяснения. Механизмите за проактивно откриване и докладите за незаконно или нарушено съдържание или акаунти предизвикват преглед, като в този момент нашите системи за инструменти обработват искането, събират съответните метаданни и насочват съответното съдържание към нашия екип за модериране чрез структуриран потребителски интерфейс, който е предназначен за улесняване на ефективни и ефикасни операции за преглед. Когато нашите екипи за модериране устаовят чрез човешка проверка или с автоматизирани средства, че потребителят е нарушил нашите Условия, можем да премахнем съдържанието или профила на нарушителя, да прекратим или ограничим видимостта на съответния акаунт, и/или да уведомим правоприлагащите органи, както е обяснено в нашия Обяснителен материал за модериране, прилагане и обжалване в Snapchat.  Потребителите, чиито акаунти блокирани от нашия екип по безопасността за нарушения на Насоките на Общността, могат да подадат жалба за заключен акаунт, а потребителите могат да обжалват определени принудителни мерки за съдържание.

Известия за съдържание и акаунт (DSA член 15.1, буква б))

Snap е въвела механизми, които позволяват на потребителите и на лицата, които не са потребители, да уведомяват Snap за съдържание и акаунти, които нарушават нашите Насоки на Общността и Условия за ползване на платформата, включително тези, които те считат за незаконни съгласно член 16 от DSA.  Тези механизми за докладване са налични в самото приложение (т.е. директно от самото съдържание) и на нашия уебсайт.

През съответния период получихме следните съобщения за съдържание и акаунти в ЕС:

През второто полугодие на 23 г. обработихме 664 896 известия единствено чрез автоматични средства. Всички те са били приложени спрямо нашите Насоки на Общността, тъй като нашите Насоки на Общността включват незаконно съдържание. 

В допълнение към генерираното от потребителите съдържание и акаунти, ние модерираме реклами, ако те нарушават правилата на нашата платформа. По-долу е посочен общият брой реклами, които са били докладвани и премахнати в ЕС. 

Известия за доверени Flaggers (член 15.1, буква б))

За периода на последния ни доклад за прозрачността (H2 2023 г.) не са били официално назначени доверени Flaggers в рамките на DSA. В резултат на това броят на съобщенията, представени от такива доверени Flaggers е нула (0) в този период.

Модерация на проактивно съдържание (член 15.1, буква в))

През съответния период Snap е наложила следното съдържание и акаунти в ЕС, след като е предприела модериране на съдържанието по собствена инициатива:

Всички усилия за модериране по собствена инициатива на Snap използват хора или автоматизация. На нашите повърхности с публично съдържание съдържанието обикновено преминава както през автоматично модериране, така и през човешка проверка, преди да бъде допуснато за разпространение сред широка аудитория. По отношение на автоматизираните инструменти те включват:

  • Проактивно откриване на незаконно и нарушаващо правилата съдържание чрез машинно обучение;

  • Инструменти за хеш-съвпадение (като PhotoDNA и CSAI Match на Google);

  • Откриване на неправомерен език за отхвърляне на съдържание въз основа на идентифициран и редовно актуализиран списък с неправомерни ключови думи, включително емотикони


Жалби (член 15.1, буква г))

През съответния период Snap е обработила следните жалби за съдържание и акаунти в ЕС чрез вътрешните си системи за разглеждане на жалби:


* Спирането на сексуалната експлоатация на деца е основен приоритет. Snap отделя значителни ресурси за постигането на тази цел и няма никаква толерантност към подобно поведение.  За прегледа на доклади относно сексуална експлоатация на деца се изисква специално обучение и тези прегледи се извършват от ограничен екип от агенти поради графичното естество на съдържанието.  През есента на 2023 г. Snap въведе промени на политиката си, засягащи последователността на прилагането на определени мерки, свързани със сексуалната експлоатация на деца, и обърнахме внимание на несъответствията чрез повторно обучение на агентите и строг контрол на качеството.  Очакваме, че следващият доклад за прозрачност ще покаже напредък в подобряването на времето на реакция по отношение на докладите за сексуална експлоатация на деца и на прецизността при първоначалното прилагане. 

Автоматизирани средства за модериране на съдържанието (член 15.1(e))

На нашите страници с публично съдържание то обикновено преминава както през автоматично модериране, така и през човешка проверка, преди да бъде допуснато за разпространение сред широка аудитория. По отношение на автоматизираните инструменти те включват:

  • Проактивно откриване на незаконно и нарушаващо правилата съдържание чрез машинно обучение;

  • Инструменти за съпоставяне на хеш (като например PhotoDNA и CSAI Match на Google);

  • Откриване на неправомерен език за отхвърляне на съдържание въз основа на идентифициран и редовно актуализиран списък с неправомерни ключови думи, включително емотикони.


Точността на технологиите за автоматично модериране за всички видове вреда е била приблизително 96,61%, а процента на грешка – около 3,39%.


Гаранции за модериране на съдържанието (Членове 15.1 (буква e))

Признаваме, че съществуват рискове, свързани с модерацията на съдържание, включително рискове за свободата на изразяване и на събранията, породени от предразсъдъци на автоматизирани модератори или модератори хора и злонамерени доклади, включително от страна на правителства, политически групи или добре организирани лица. Snapchat по принцип не е място за политическо или активистко съдържание, по-специално в нашите публични пространства. 


Въпреки това, за да осигурим защита срещу тези рискове, Snap има въведени тестове и обучения, както и надеждни и последователни процедури за обработка на докладите за незаконно или нарушаващо правилата съдържание, включително от правоприлагащи и правителствени органи. Непрекъснато оценяваме и развиваме алгоритмите си за модериране на съдържание. Макар че е трудно да бъдат открити потенциалните опасности за свободата на изразяване, не са ни известни значителни проблеми, а също така осигуряваме на потребителите си възможности да докладват за възникнали грешки. 


Политиките и системите ни насърчават последователното и справедливо правоприлагане и, както е описано по-горе, осигуряват на потребителите на Snapchat възможност да оспорват по смислен начин резултатите от правоприлагането, като използват процесите за уведомяване и жалби, имащи за цел да се защитят интересите на общността ни, като същевременно се опазват правата на отделните потребители на Snapchat.

Непрекъснато се стремим да подобряваме политиките и процесите си на правоприлагане и сме постигнали голям напредък в борбата срещу потенциално вредното или незаконно съдържание и дейности в Snapchat. Това се вижда и от възходящата тенденция по отношение на стойностите за докладването и правоприлагането в последния ни Доклад за прозрачността, както и от намаляващата честота на нарушенията в Snapchat като цяло.


Извънсъдебно разрешаване на спорове (член 24.1, буква a)

За периода, обхванат от последния ни Доклад за прозрачността (втората половина на 2023 г.), не са били официално назначени органи за извънсъдебно разрешаване на спорове съгласно DSA. В резултат на това броят на споровете, представени пред такива органи е нула (0) за този период и не можем да представим резултати, средно време за разрешаване на спорове и дяла на споровете, при които сме приложили решенията на органа. 



Спиране на акаунти (член 24.1(b))

През втората половина на 2023 г. не сме прекратили акаунти съгласно член 23. Екипът на Snap по доверие и безопасност има въведени процедури за ограничаване на вероятността потребителски акаунти често да изпращат уведомления или оплаквания, които са явно неоснователни. Тези процедури включват ограничаване на създаването на дублиращи се доклади и използването на имейл филтри за възпиране на потребители, които често са представяли явно неоснователни доклади, да продължават да правят това. Snap предприема подходящи правоприлагащи действия срещу акаунти, както е обяснено в нашия Обяснителен материал за модериране, прилагане и обжалване, а информация относно равнището на мерки, които Snap предприема срещу акаунти, може да бъде открита в нашия Доклад за прозрачността (втора половина на 2023 г.). Тези мерки ще продължават да се преразглеждат и прилагат.


Ресурси, експертен опит и подкрепа на модераторите (член 42.2)

Екипът ни по модериране на съдържанието работи по целия свят, което ни помага да защитаваме потребителите на Snapchat денонощно във всеки ден от седмицата. По-долу ще откриете разбивка на ресурсите ни за модериране от хора според езика на модераторите (имайте предвид, че някои модератори са специализирани в няколко езика) към 31 декември 2023 г.:

উপরে টেবিলে রয়েছে সমস্ত মডারেটর, যারা 31 ডিসেম্বর, 2023 তারিখ অনুযায়ী EU সদস্য দেশের ভাষাগুলোকে সাপোর্ট করেন। В ситуации, в които се нуждаем от допълнителна езикова поддръжка, ние използваме преводачески услуги.

Модераторите се наемат с помощта на стандартна длъжностна характеристика, която включва изискване за език (в зависимост от нуждата). Изискването за език гласи, че кандидатът следва да може да демонстрира писмено и говоримо владеене на езика и да има поне една година работен опит за позиции на входящо ниво. প্রার্থীদেরকে বিবেচিত হতে গেলে অবশ্যই শিক্ষাগত এবং ব্যাকগ্রাউন্ড সংক্রান্ত শর্ত পূরণ করতে হবে। এছাড়া প্রার্থীদেরকে অবশ্যই যে বিষয়বস্তু সংক্রান্ত মডারেশন তারা সাপোর্ট করবে, সেই অঞ্চলের বা দেশের বর্তমানের ইভেন্টের ব্যাপারে ধারনা থাকতে হবে।

Екипът ни за модериране прилага нашите политики и принудителни мерки, за да защити Snapchat общността ни. Обучението се провежда в продължение на няколко седмици, през които новите членове на екипа изучават политиките на Snap, инструментите и процедурите за ескалация. След обучението всеки модератор трябва да премине изпит за сертифициране, преди да бъде разрешено да преглежда съдържание. Екипът ни за модериране редовно участва в опреснителни обучения, които са свързани с техните работни процеси, особено когато се сблъскаме с гранични с правилата и контекстно-зависими случаи. Освен това провеждаме програми за повишаване на квалификацията, сесии за сертифициране и тестове, за да гарантираме, че всички модератори имат актуална информация и са в съответствие с всички актуализирани политики. Накрая, когато се появят неотложни тенденции в съдържанието, базирани на текущите събития, ние бързо разпространяваме разяснения на политиките, така че екипите да могат да реагират съгласно политиките на Snap.

Предоставяме на екипа модериращ съдържание – „цифрови първи реагиращи на Snap“ – значителна подкрепа и ресурси, включително подкрепа на работното място и лесен достъп до услуги за психично здраве. 

শিশুদের যৌন শোষণ এবং অত্যাচার (CSEA) সংক্রান্ত মিডিয়া স্ক্যানিং রিপোর্ট


ব্যাকগ্রাউন্ড

Сексуалната експлоатация на който и да е член на нашата общност, особено на непълнолетни, е незаконна, осъдителна и забранена от нашите Насоки за общността. Предотвратяването, откриването и изкореняването на сексуалната експлоатация и злоупотреба с деца (CSEA) в нашата платформа е основен приоритет за Snap и ние непрекъснато развиваме възможностите си за борба с тези и други престъпления.


আমরা শিশুদের যৌন নির্যাতনের জ্ঞাত অবৈধ ইমেজ এবং ভিডিও শনাক্ত করতে PhotoDNA মজবুত হ্যাশ-ম্যাচিং এবং Google-এর চাইল্ড সেক্সুয়াল অ্যাবইউজ ইমেজারি (CSAI) ব্যবহার করি এবং সেগুলো, আইন অনুযায়ী, মার্কিন যুক্তরাষ্ট্রের ন্যাশনাল সেন্টার ফর মিসিং অ্যান্ড এক্সপ্লয়েটেড চিল্ড্রেন (NCMEC)-এর কাছে রিপোর্ট করি। След това NCMEC на свой ред координира действията си с националните или международните правоприлагащи органи, ако това е необходимо.


রিপোর্ট

নিচের ডেটা Snapchat-এ ব্যবহারকারীর ক্যামের দ্বারা আপলোড করা মিডিয়ার CSAI ম্যাচ এবং/অথবা PhotoDNA ব্যবহার করে, সক্রিয় স্ক্যানিংয়ের ফলাফলের ভিত্তিতে প্রস্তুত করা হয়।

শিশুদের যৌন শোষণ বন্ধ করা একটি অন্যতম অগ্রাধিকার। Snap отделя значителни ресурси за постигането на тази цел и няма никаква толерантност към подобно поведение.  За прегледа на доклади относно сексуална експлоатация на деца се изисква специално обучение и тези прегледи се извършват от ограничен екип от агенти поради графичното естество на съдържанието.  През есента на 2023 г. Snap въведе промени на политиката си, засягащи последователността на прилагането на определени мерки, свързани със сексуалната експлоатация на деца, и обърнахме внимание на несъответствията чрез повторно обучение на агентите и строг контрол на качеството.  আমরা আশা করছি যে পরবর্তী স্বচ্ছতার রিপোর্ট থেকে প্রাথমিক এনফোর্সমেন্টের নির্ভুলতার উন্নতি করা এবং CSE আবেদনের জন্য জবাব দেওয়ার সময় আরও কমানোর ব্যাপারে অগ্রগতি জানা যাবে।

বিষয়বস্তু মডারেশন সংক্রান্ত সুরক্ষা

উপরে উল্লেখ করা CSEA মিডিয়া স্ক্যানিংয়ের জন্য প্রয়োগ করা সুরক্ষাবিধিগুলো আমাদের DSA রিপোর্ট অধীনে থাকা “বিষয়বস্তু মডারেশন সংক্রান্ত সুরক্ষা” বিভাগে দেখা যাবে।


শিশুদের যৌন শোষণ এবং অত্যাচার (CSEA) সংক্রান্ত মিডিয়া স্ক্যানিং রিপোর্ট


ব্যাকগ্রাউন্ড

Сексуалната експлоатация на който и да е член на нашата общност, особено на непълнолетни, е незаконна, осъдителна и забранена от нашите Насоки за общността. Предотвратяването, откриването и изкореняването на сексуалната експлоатация и злоупотреба с деца (CSEA) в нашата платформа е основен приоритет за Snap и ние непрекъснато развиваме възможностите си за борба с тези и други престъпления.


আমরা শিশুদের যৌন নির্যাতনের জ্ঞাত অবৈধ ইমেজ এবং ভিডিও শনাক্ত করতে PhotoDNA মজবুত হ্যাশ-ম্যাচিং এবং Google-এর চাইল্ড সেক্সুয়াল অ্যাবইউজ ইমেজারি (CSAI) ব্যবহার করি এবং সেগুলো, আইন অনুযায়ী, মার্কিন যুক্তরাষ্ট্রের ন্যাশনাল সেন্টার ফর মিসিং অ্যান্ড এক্সপ্লয়েটেড চিল্ড্রেন (NCMEC)-এর কাছে রিপোর্ট করি। След това NCMEC на свой ред координира действията си с националните или международните правоприлагащи органи, ако това е необходимо.


রিপোর্ট

নিচের ডেটা Snapchat-এ ব্যবহারকারীর ক্যামের দ্বারা আপলোড করা মিডিয়ার CSAI ম্যাচ এবং/অথবা PhotoDNA ব্যবহার করে, সক্রিয় স্ক্যানিংয়ের ফলাফলের ভিত্তিতে প্রস্তুত করা হয়।

শিশুদের যৌন শোষণ বন্ধ করা একটি অন্যতম অগ্রাধিকার। Snap отделя значителни ресурси за постигането на тази цел и няма никаква толерантност към подобно поведение.  За прегледа на доклади относно сексуална експлоатация на деца се изисква специално обучение и тези прегледи се извършват от ограничен екип от агенти поради графичното естество на съдържанието.  През есента на 2023 г. Snap въведе промени на политиката си, засягащи последователността на прилагането на определени мерки, свързани със сексуалната експлоатация на деца, и обърнахме внимание на несъответствията чрез повторно обучение на агентите и строг контрол на качеството.  আমরা আশা করছি যে পরবর্তী স্বচ্ছতার রিপোর্ট থেকে প্রাথমিক এনফোর্সমেন্টের নির্ভুলতার উন্নতি করা এবং CSE আবেদনের জন্য জবাব দেওয়ার সময় আরও কমানোর ব্যাপারে অগ্রগতি জানা যাবে।

বিষয়বস্তু মডারেশন সংক্রান্ত সুরক্ষা

উপরে উল্লেখ করা CSEA মিডিয়া স্ক্যানিংয়ের জন্য প্রয়োগ করা সুরক্ষাবিধিগুলো আমাদের DSA রিপোর্ট অধীনে থাকা “বিষয়বস্তু মডারেশন সংক্রান্ত সুরক্ষা” বিভাগে দেখা যাবে।


শিশুদের যৌন শোষণ বন্ধ করা একটি অন্যতম অগ্রাধিকার। Snap отделя значителни ресурси за постигането на тази цел и няма никаква толерантност към подобно поведение.  За прегледа на доклади относно сексуална експлоатация на деца се изисква специално обучение и тези прегледи се извършват от ограничен екип от агенти поради графичното естество на съдържанието.  През есента на 2023 г. Snap въведе промени на политиката си, засягащи последователността на прилагането на определени мерки, свързани със сексуалната експлоатация на деца, и обърнахме внимание на несъответствията чрез повторно обучение на агентите и строг контрол на качеството.  আমরা আশা করছি যে পরবর্তী স্বচ্ছতার রিপোর্ট থেকে প্রাথমিক এনফোর্সমেন্টের নির্ভুলতার উন্নতি করা এবং CSE আবেদনের জন্য জবাব দেওয়ার সময় আরও কমানোর ব্যাপারে অগ্রগতি জানা যাবে।

বিষয়বস্তু মডারেশন সংক্রান্ত সুরক্ষা

উপরে উল্লেখ করা CSEA মিডিয়া স্ক্যানিংয়ের জন্য প্রয়োগ করা সুরক্ষাবিধিগুলো আমাদের DSA রিপোর্ট অধীনে থাকা “বিষয়বস্তু মডারেশন সংক্রান্ত সুরক্ষা” বিভাগে দেখা যাবে।


Тази цифра се разпределя по държави членки, както следва:

Тази цифра се разпределя по държави членки, както следва: