Фондация •Уеб Шелф•

НЕ, Европа НЕ воюва срещу свободата на словото

Наблюдение и мониторинг НЕ значи контрол и намеса в работата на алгоритмите

прочети

НЕ, Европа НЕ воюва срещу свободата на словото


Архивирана публикация:

https://web.archive.org/web/20250313085758/https://pogled.info/svetoven/evropa/zhertvi-na-neobyavenata-voina-kak-evropa-voyuva-sreshtu-svobodata-na-slovoto.176046

„Регулирането на алгоритмите X или TikTok чрез прилагането на европейските правни стандарти е централна задача. Не можем да оставим демократичния дискурс в ръцете на Илон Мъск и китайския софтуер“, каза Хабек, обяснявайки необходимостта от въвеждане на строга интернет цензура в Европейския съюз.“

Robert Habeck, German Vice Chancellor and Green party member: „The regulation of algorithms, of X or TikTok, through the application of European legal norms is a central task. We cannot place ‘democratic discourse’ in the hands of Elon Musk and Chinese software.“

Никъде в изказването на Роберт Хабек не се споменава „необходимостта от въвеждане на строга интернет цензура в Европейския съюз.“, както невярно се твърди в публикацията на поглед.инфо.


17.04.2023 г. Прилагане на Законодателния акт за цифровите услуги: Комисията поставя началото на Европейски център за алгоритмична прозрачност
(https://ec.europa.eu/commission/presscorner/detail/bg/ip_23_2186)

18.12.2023 г. Комисията открива официално производство срещу Х съгласно Законодателния акт за цифровите услуги
(https://ec.europa.eu/commission/presscorner/detail/bg/ip_23_6709)

12.07.2024 г. Комисията изпраща предварителни констатации на X за нарушение на Законодателния акт за цифровите услуги
(https://ec.europa.eu/commission/presscorner/detail/bg/ip_24_3761)


Прозрачността на алгоритмите, както се изисква от Законодателния акт за цифровите услуги (DSA) (https://www.consilium.europa.eu/bg/policies/digital-services-act/), не е равносилна на контрол над алгоритмите, но включва определени аспекти на надзор. Целта на изискванията за прозрачност е платформите като Х (преди Twitter) да разкрият как работят техните системи за препоръки, как се взимат решения за модериране на съдържание и какви са механизмите за управление на рискове, като дезинформация и незаконно съдържание.

В рамките на DSA се изисква платформите да предоставят достъп до техните алгоритми за анализ от регулатори и изследователи. Това включва информация за логиката, данните и критериите, които влияят на препоръките и разпространението на съдържание. Въпреки това, този процес не представлява пряка намеса или управление на алгоритмите, а по-скоро осигурява отчетност и намалява риска от злоупотреба.

Може да се каже, че прозрачността създава основа за по-добро разбиране и мониторинг, без да се нарушава автономията на платформите. Наблюдение и мониторинг НЕ значи контрол и намеса в работата на същите.


logos-project