OpenAI walczy z dezinformacją wyborczą. Tworzy specjalne narzędzia

Alicja Skiba
opublikowano: 2024-01-15 21:43

OpenAI wdroży innowacje, żeby zapobiec wykorzystywaniu swoich produktów do rozprzestrzeniania dezinformacji. Będzie to miało kluczowe znaczenie w tym roku, który upłynie pod znakiem wyborów w wielu krajach, w tym w USA.

Posłuchaj
Speaker icon
Zostań subskrybentem
i słuchaj tego oraz wielu innych artykułów w pb.pl
Subskrypcja

Na świecie narastają obawy, że “deepfake’i” oraz inne treści generowane przez sztuczną inteligencję będą wprowadzały wyborców w błąd podczas kampanii. Firma Open AI postanowiła się z tym zmierzyć i wprowadza nowe narzędzia, które mają temu zapobiec - podał Bloomberg. Będą analizować informacje o bieżących doświadczeniach dostarczanych przez ChatGPT i pomagać użytkownikom w określeniu, czy obraz stworzyło oprogramowanie AI.

“Ochrona uczciwości wyborów wymaga współpracy z każdym aspektem demokratycznego procesu i chcemy mieć pewność, że nasza technologia nie będzie wykorzystywana w sposób, który mógłby go podważyć” - przekazała firma we wpisie na blogu.

99 proc. skuteczności?

Start-up rozpocznie kodowanie obrazów tworzonych przez generator Dall-E 3 z informacjami o ich pochodzeniu. Dzięki temu wyborcy będą mogli zweryfikować, czy wizerunki, które widzą w sieci, zostały wykonane przy użyciu sztucznej inteligencji. W procesie będzie wykorzystywany standard kryptograficzny ustanowiony przez Coalition for Content Provenance and Authenticity (C2PA). Adobe, Microsoft i Intel.

Narzędzie zostanie najpierw udostępnione dziennikarzom, platformom i badaczom.

Mira Murati, szefowa ds. technologii w OpenAI, poinformowała w październiku, że technologia miała 99 proc. dokładności w testach wewnętrznych.