
Przepisy, jeśli zostaną wprowadzone, mogłyby być pierwszymi tego rodzaju na świecie. Komisja Europejska rozpoczęła prace nad ustawą o sztucznej inteligencji prawie dwa lata temu, aby uregulować rozwijającą się branżę. Boom inwestycyjny na AI trwa od listopada zeszłego roku po tym, jak wydano bota generatywnego ChatGPT autorstwa stratupu OpenAI.
Ryzyko: minimalne, ograniczone, wysokie, lub niebezpieczne
Unijni ustawodawcy i państwa członkowskie będą teraz ustalali ostateczne szczegóły ustawy. Zgodnie z propozycjami, narzędzia AI mają być klasyfikowane zgodnie z ich potencjalnym poziomem ryzyka: od minimalnego, przez ograniczone i wysokie, aż po niedopuszczalne. Problematyczne obszary mogą obejmować nadzór biometryczny, rozpowszechnianie dezinformacji, lub dyskryminujący język.
Przejrzystość w stosowaniu AI
Narzędzia wysokiego ryzyka nie będą zakazane, jednak podmioty je stosujące będą musiały zachować dużą przejrzystość w swoich działaniach. Przedsiębiorstwa stosujące generatywne boty, jak ChatGPT, lub tworzący obrazy Midjourney, będą również zobowiązane do ujawniania wszelkich materiałów chronionych prawem autorskim, które wykorzystano do opracowania ich systemów.
Niektórzy członkowie komisji początkowo proponowali całkowity zakaz wykorzystywania materiałów chronionych prawem autorskim do szkolenia generatywnych modeli AI.
