AI w centrum sporu politycznego. Kalifornia nie ustępuje mimo gróźb Trumpa

ON, Bloomberg
opublikowano: 2026-01-05 16:49

Najpotężniejsze firmy rozwijające sztuczną inteligencję mogą w tym roku stanąć do jednej z najtrudniejszych walk regulacyjnych – i to na własnym podwórku. Kalifornia, będąca centrum globalnej branży AI, przygotowuje się do zaostrzenia przepisów, a nawet groźby ze strony prezydenta Donald Trump nie studzą zapału lokalnych ustawodawców – podaje agencja Bloomberg.

Posłuchaj
Speaker icon
Zostań subskrybentem
i słuchaj tego oraz wielu innych artykułów w pb.pl
Subskrypcja

Demokratyczna większość w kalifornijskim parlamencie uważa, że niekontrolowany rozwój AI niesie realne zagrożenia – zwłaszcza dla zdrowia psychicznego dzieci i dorosłych. Politycy otwarcie kwestionują grudniowe rozporządzenie Donalda Trumpa, które przewiduje wstrzymanie federalnych funduszy dla stanów wprowadzających własne regulacje dotyczące AI. Ich zdaniem odpowiedzialność za bezpieczeństwo mieszkańców spoczywa na władzach stanowych, niezależnie od nacisków z Waszyngtonu.

Powrót projektu zakazu chatbotów dla nieletnich

— Firmy technologiczne wydały ogromne pieniądze na lobbing i ich wpływ jest realny. Ale gdy szkody stają się aż tak widoczne, naszym obowiązkiem jest działać w interesie obywateli — powiedziała Rebecca Bauer-Kahan, deputowana do kalifornijskiego Zgromadzenia Stanowego.

Polityczka zapowiada ponowne złożenie projektu ustawy, która zakazywałaby nieletnim korzystania z tzw. chatbotów-towarzyszy — programów tworzących relacje przypominające więzi międzyludzkie. Podobne przepisy zostały w ubiegłym roku zawetowane przez gubernatora Gavina Newsoma.

Sprzeciw wobec stanowiska Trumpa rośnie

Kalifornia nie jest osamotniona. Również ustawodawcy w innych stanach – zarówno liberalnych, jak i konserwatywnych – zaczynają sprzeciwiać się stanowisku Donada Trumpa. Coraz częściej pojawiają się bowiem doniesienia o dzieciach i dorosłych tworzących niezdrowe, a czasem wręcz urojeniowe więzi z chatbotami. Tradycyjnie to właśnie Kalifornia wyznacza kierunek: we wrześniu Gavin Newsom podpisał ustawę zobowiązującą twórców AI do ujawniania procedur bezpieczeństwa, z której wzorów korzystają już m.in. ustawodawcy w Nowym Jorku.

Jednocześnie presja regulacyjna zderza się z twardą rzeczywistością budżetową. Sektor AI stał się jednym z kluczowych źródeł dochodów dla stanowego budżetu sięgającego 320 mld USD. Giganci z Doliny Krzemowej, których łączna kapitalizacja przekracza 15 bln USD, generują dziś około 10 mld USD rocznie z samych zaliczek na podatek dochodowy. Spółki takie jak Apple, Nvidia czy Alphabet są – jak określiło to biuro analityczne kalifornijskiego parlamentu – „jedynym jasnym punktem” w ponurych prognozach fiskalnych.

Regulacje AI a ryzyko odpływu firm

Stawia to Gavina Newsoma w politycznie niewygodnej sytuacji. Z jednej strony rośnie presja ze strony zaniepokojonych rodziców, z drugiej – branża ostrzega, że nadmierne regulacje mogą skłonić firmy do opuszczenia stanu. Taki scenariusz nie byłby precedensem: Kalifornię opuściły już m.in. Hewlett Packard Enterprise, Oracle i Tesla.

— Groźba opuszczenia Kalifornii to najmocniejsza karta branży technologicznej — oceniła Catherine Bracy z organizacji TechEquity, opowiadającej się za wprowadzeniem zabezpieczeń w AI.

Spór przenosi się również na grunt demokracji bezpośredniej. Organizacja Common Sense Media zbiera podpisy pod inicjatywą referendalną ograniczającą dostęp nieletnich do chatbotów. Równolegle OpenAI rozważa zgłoszenie konkurencyjnej propozycji. Obie strony muszą zebrać ponad pół miliona ważnych podpisów do czerwca, by znaleźć się na listopadowej karcie do głosowania.

Firmy technologiczne reagują na presję regulacyjną

Założyciel organizacji Common Sense Media, Jim Steyer, prowadzi rozmowy z przedstawicielami OpenAI w poszukiwaniu kompromisu. Jego zdaniem Kalifornia pełni dziś rolę faktycznego centrum regulacyjnego największych firm technologicznych w USA. — Wierzymy, że społeczeństwo stoi po naszej stronie i że to właśnie tutaj powstaną standardy dla całego kraju — podkreślił.

OpenAI deklaruje z kolei, że pracuje nad dodatkowymi zabezpieczeniami dla nastolatków, w tym nad mechanizmami szacowania wieku i większą kontrolą rodzicielską.

Równolegle spółka Meta Platforms przekazała 20 mln USD na rzecz komitetu politycznego wspierającego interesy branży technologicznej, a kalifornijska izba handlowa ostrzegła, że zbyt restrykcyjne ograniczenia dla nieletnich mogą skłonić firmy z sektora AI do opuszczenia stanu.

Bezpieczne ramy dla rozwoju sztucznej inteligencji

Ustawodawcy pozostają jednak nieugięci. Ich zdaniem rozsądne przepisy nie zahamują rozwoju technologii, lecz wyznaczą bezpieczne zasady dla branży o globalnym znaczeniu. Wśród projektów, które mają wrócić pod obrady, są m.in. regulacje zakazujące chatbotom kierowania treści seksualnych do nieletnich oraz propozycja czteroletniego czasowego zakazu sprzedaży dzieciom zabawek wykorzystujących sztuczną inteligencję.

— Słyszeliśmy już podobne argumenty przy pasach bezpieczeństwa i poduszkach powietrznych. Dziś nikt nie kwestionuje, że rozsądne zabezpieczenia służą wszystkim — przypomniał senator Steve Padilla.

Możesz zainteresować się również: