Італія оштрафувала OpenAI на €15 млн
23 декабря 2024 г.
Італійське управління з захисту даних (DPA) оштрафувало OpenAI на €15 мільйонів за порушення конфіденційності та витік даних користувачів. Регулятор дійшов висновку, що компанія неправомірно використовувала персональні дані для навчання своїх мовних моделей, зокрема популярної моделі ChatGPT. При цьому OpenAI не дотримувалась зобов'язань щодо прозорості та інформування користувачів, що стало основою для накладення штрафу.
Витік даних у березні 2023 року
Інцидент стався в березні 2023 року, але інформація про витік даних не була розкрита одразу. Розслідування показало, що OpenAI неналежним чином повідомила громадськість про свої дії, що стало одним із головних факторів накладення санкцій.
Згідно з європейським законодавством, компанії зобов'язані дотримуватись суворих стандартів конфіденційності та прозорості при обробці особистих даних.
Штраф і зобов'язання
OpenAI знизили штраф, який міг би скласти до 4% їхнього річного доходу, завдяки співпраці з регуляторами. Однак компанія зобов'язана провести шестимісячну кампанію, інформуючи користувачів про принципи навчання ChatGPT та використання їхніх даних. Ініціатива охопить радіо, телебачення, Інтернет та друковані видання для підвищення обізнаності про генеративні ІТ-системи.
В результаті комплексу заходів користувачі повинні зрозуміти, як їхні дані використовуються для навчання ІІ та як уникнути цього, якщо захочуть. Це зобов'язання сприятиме підвищенню прозорості у сфері ІТ та захисту даних.
Що думає з цього приводу Польща?
Не тільки Італія приділяє увагу питанням захисту даних, пов'язаних з OpenAI. У вересні 2023 року Польща розпочала власне розслідування стосовно ChatGPT. Це підтверджує, що законодавчі органи Європи стають дедалі більш уважними до питань етики та конфіденційності у галузі штучного інтелекту.