Este é um marco significativo para a Iniciativa de Autenticidade de Conteúdo (CAI) e para o futuro do fotojornalismo: inaugura uma nova e poderosa maneira para fotojornalistas e criadores combaterem a desinformação e trazerem autenticidade ao seu trabalho e aos consumidores, ao mesmo tempo que serão pioneiros na adoção generalizada de Credenciais de Conteúdo
Leica lança a 1ª câmera do mundo à prova de fake news
A Leica anunciou o lançamento da , uma câmera que promete servir à guerra contra a desinformação, que promete identificar quando uma foto foi ou não modificada intencionalmente.
A ideia é facilitar a vida de usuários nas redes sociais, plataformas que encontram cada vez mais dificuldades para moderar os conteúdos enganosos.
Será possível checar marca e modelo da câmera e alguns dados específicos do conteúdo, o que inclui o nome do fotógrafo que capturou uma imagem, data, horário e como a imagem foi capturada.
Além de possibilidade de consulta de dados sobre quem ou quando a foto foi tirada, todas as alterações realizadas no material original serão registradas.
A câmera é uma variação do modelo M-11 da Leica, que conta com um chip segurança egrava os metadados das imagens em um certificado de autenticidade verificável através do programa Content Authenticity Initiative (CAI), da Adobe.
Além do recurso de certificação de autenticidade, o modelo tem um grande salto de espaço de armazenamento interno em relação ao modelo M-11 de 64 GB para 256 GB. O preço sugerido é de US$ 9.195, o que dá aproximadamente R$ 46.300 em conversão direta e sem considerar impostos.
A iniciativa da Leica é importante, principalmente, para aumentar a confiabilidade de imagens captadas por jornalistas profissionais, além de tornar os conteúdos produzidos verificáveis.
Recentemente, o fenômeno de imagens geradas por inteligência artificial ultrarrealistas tem confundido e enganando pessoas com menor nível de letramento digital. Infelizmente, conforme a tecnologia de IA generativa vai avançando, mais comum será ver pessoas enganadas por imagens de IA.
Por este motivo, algumas gigantes da tecnologia que oferecem ferramentas de IA generativa de imagem estão implementando marcas d’água e outras soluções para atestar que as fotos não são reais e que foram produzidas com a ajuda de ferramentas de inteligência artificial.