Na świecie narastają obawy, że “deepfake’i” oraz inne treści generowane przez sztuczną inteligencję będą wprowadzały wyborców w błąd podczas kampanii. Firma Open AI postanowiła się z tym zmierzyć i wprowadza nowe narzędzia, które mają temu zapobiec - podał Bloomberg. Będą analizować informacje o bieżących doświadczeniach dostarczanych przez ChatGPT i pomagać użytkownikom w określeniu, czy obraz stworzyło oprogramowanie AI.
“Ochrona uczciwości wyborów wymaga współpracy z każdym aspektem demokratycznego procesu i chcemy mieć pewność, że nasza technologia nie będzie wykorzystywana w sposób, który mógłby go podważyć” - przekazała firma we wpisie na blogu.
99 proc. skuteczności?
Start-up rozpocznie kodowanie obrazów tworzonych przez generator Dall-E 3 z informacjami o ich pochodzeniu. Dzięki temu wyborcy będą mogli zweryfikować, czy wizerunki, które widzą w sieci, zostały wykonane przy użyciu sztucznej inteligencji. W procesie będzie wykorzystywany standard kryptograficzny ustanowiony przez Coalition for Content Provenance and Authenticity (C2PA). Adobe, Microsoft i Intel.
Narzędzie zostanie najpierw udostępnione dziennikarzom, platformom i badaczom.
Mira Murati, szefowa ds. technologii w OpenAI, poinformowała w październiku, że technologia miała 99 proc. dokładności w testach wewnętrznych.