
Архивирана публикация:
„Регулирането на алгоритмите X или TikTok чрез прилагането на европейските правни стандарти е централна задача. Не можем да оставим демократичния дискурс в ръцете на Илон Мъск и китайския софтуер“, каза Хабек, обяснявайки необходимостта от въвеждане на строга интернет цензура в Европейския съюз.“
NOW – Robert Habeck, German Vice Chancellor and Green party member: „The regulation of algorithms, of X or TikTok, through the application of European legal norms is a central task. We cannot place ‘democratic discourse’ in the hands of Elon Musk and Chinese software.“ pic.twitter.com/IJNw2KCkfi
— Disclose.tv (@disclosetv) November 9, 2024
Robert Habeck, German Vice Chancellor and Green party member: „The regulation of algorithms, of X or TikTok, through the application of European legal norms is a central task. We cannot place ‘democratic discourse’ in the hands of Elon Musk and Chinese software.“
Никъде в изказването на Роберт Хабек не се споменава „необходимостта от въвеждане на строга интернет цензура в Европейския съюз.“, както невярно се твърди в публикацията на поглед.инфо.
17.04.2023 г. Прилагане на Законодателния акт за цифровите услуги: Комисията поставя началото на Европейски център за алгоритмична прозрачност
(https://ec.europa.eu/commission/presscorner/detail/bg/ip_23_2186)
18.12.2023 г. Комисията открива официално производство срещу Х съгласно Законодателния акт за цифровите услуги
(https://ec.europa.eu/commission/presscorner/detail/bg/ip_23_6709)
12.07.2024 г. Комисията изпраща предварителни констатации на X за нарушение на Законодателния акт за цифровите услуги
(https://ec.europa.eu/commission/presscorner/detail/bg/ip_24_3761)
Прозрачността на алгоритмите, както се изисква от Законодателния акт за цифровите услуги (DSA) (https://www.consilium.europa.eu/bg/policies/digital-services-act/), не е равносилна на контрол над алгоритмите, но включва определени аспекти на надзор. Целта на изискванията за прозрачност е платформите като Х (преди Twitter) да разкрият как работят техните системи за препоръки, как се взимат решения за модериране на съдържание и какви са механизмите за управление на рискове, като дезинформация и незаконно съдържание.
В рамките на DSA се изисква платформите да предоставят достъп до техните алгоритми за анализ от регулатори и изследователи. Това включва информация за логиката, данните и критериите, които влияят на препоръките и разпространението на съдържание. Въпреки това, този процес не представлява пряка намеса или управление на алгоритмите, а по-скоро осигурява отчетност и намалява риска от злоупотреба.
Може да се каже, че прозрачността създава основа за по-добро разбиране и мониторинг, без да се нарушава автономията на платформите. Наблюдение и мониторинг НЕ значи контрол и намеса в работата на същите.
