Um grupo de parlamentares do Partido Liberal Democrático (LDP) do Japão planeja apresentar uma proposta no próximo mês que pedirá a proibição de serviços de redes sociais como o TikTok se forem usados para campanhas de desinformação, disse um legislador do LDP nesta segunda-feira.
Muitos deputados dos Estados Unidos estão pedindo ao governo Biden que proíba a popular plataforma de vídeos curtos, alegando que o aplicativo pode ser usado para coleta de dados, censura de conteúdo e danos à saúde mental das crianças.
"Se for verificado que um aplicativo foi usado intencionalmente por uma determinada parte de um determinado país para suas operações de influência com intenção criminosa..., a interrupção imediata do serviço deve ser considerada", disse o deputado Norihiro Nakayama à Reuters em entrevista.
"Deixar claro que as operações podem ser interrompidas ajudará a manter os operadores de aplicativos sob controle, pois significa que os 17 milhões de usuários do TikTok (no Japão), por exemplo, perderão seu acesso. Isso também levará a uma sensação de segurança para os usuários", disse Nakayama.
Nakayama, membro sênior de um grupo de parlamentares do partido governista, disse que a proposta não terá como alvo nenhuma plataforma em particular.
Uma série de governos e instituições ocidentais proibiram o TikTok nas últimas semanas, incluindo os parlamentos da Nova Zelândia e do Reino Unido, e os governos da Holanda e Bélgica.
No Japão, o uso do TikTok e de outros serviços de redes sociais são proibidos em dispositivos governamentais que lidam com informações confidenciais.
Nakayama disse que novas restrições devem ser consideradas somente depois de analisar o manuseio de dados e outras operações.
"Acredito que primeiro precisamos permitir que as pessoas de fora compreendam com firmeza como os dados estão sendo tratados sempre que surgem preocupações", disse Nakayama.
Recentemente, fotos o Papa Francisco vestindo um casaco branco gigante viralizaram na internet, porém, elas foram criadas por inteligência artificial
Infelizmente a foto do Papa Francisco de casaco branco gigante é fake. O "clique", na verdade, é uma imagem gerada pela plataforma Midjourney, que usa inteligência artificial para gerar imagens a partir de descrições em texto, e foi elaborada pelo artista digital Pablo Xavier.
Inicialmente, as fotos do Papa Francisco foram compartilhadas no Reddit, mas pouco tempo depois foram parar no Twitter, onde viralizaram de verdade e ganharam outras redes, como TikTok e Instagram.
Quem está por trás das fotos do Papa estiloso?
Foram criadas várias imagens do pontífice, cada uma com diferentes jaquetas puffer, casacos e acessórios, mas nenhuma delas tem pé na realidade. As "fotos" inusitadas enganaram muitas pessoas que realmente acreditaram que Francisco apareceu com uma espécie de "Batina by Balenciaga" ou algo do tipo.
O artista responsável pela criação, Pablo Xavier, é um construtor civil nascido em Chicago, Estados Unidos, que tem como hobby a criação de arte com inteligência artificial. Desde que conheceu o Midjourney no ano passado, ele vem criando outfits inusitados para figuras públicas famosas, como Papa Francisco, o atual presidente dos EUA Joe Biden e ex-presidente do país norte-americano Barack Obama.
Foto: Reprodução/Midjourney/Reddit / Canaltech
Imagens geradas por IA podem ser convincentes
O Papa jamais foi visto publicamente com o look e as imagens foram criadas no mesmo programa que gerou cliques fakes do ex-presidente dos Estados Unidos, Donald Trump, sendo preso.
Por vezes, o potencial de mecanismos de geração de imagens é demonstrado com figuras criativas, desenhos, pinturas e paisagens, mas essas ferramentas também são capazes de gerar fotos ultrarrealistas bastante convincentes. Se o usuário responsável pela solicitação tiver boa capacidade de edição, até as imperfeições podem ser remediadas em um editor de imagens.
Fotos como as do Papa Francisco e do ex-presidente Donald Trump
, portanto, devem se tornar ainda mais comuns daqui para frente. Por isso, é essencial desconfiar de imagens "exóticas" demais que circulam pela web.
Como identificar uma foto gerada por IA?
Apesar da dificuldade, existem algumas formas de identificar uma foto gerada por IA. Nos rostos, a principal pista de que uma imagem é fake são os reflexos nos olhos — eles tendem a ser diferentes
. Contudo, essa falha nem sempre é perceptível, então é necessário olhar para outros elementos da foto: as mãos.
Softwares de inteligência artificial generativa como o Midjourney têm uma grande dificuldade em criar mãos realistas. Por vezes, o problema faz as pessoas da captura aparecerem com mais ou menos dedos do que o normal ou então com as mãos no bolso — vale a pena juntar ambas as dicas para (tentar) identificar uma foto fake gerada por IA.
O sistema DRF (Data & Reasoning Fabric) da NASA começou a testar, no mundo real, a capacidade de drones e táxis aéreos de tomarem decisões críticas sozinhos
A NASA começou a testar, em ambiente controlado, mas real, o Data & Reasoning Fabric (DRF), sistema que promete oferecer aos drones e táxis aéreos a capacidade de tomar decisões críticas de segurança de forma autônoma.
7
Foto: Divulgação/NASA / Canaltech
O órgão acredita ser de fundamental importância desenvolver um ecossistema capaz de fornecer informações precisas e atualizadas sobre o tráfego aéreo. Desta forma, será possível transformar a mobilidade urbana de forma segura e eficiente.
O princípio a ser usado pela NASA para a construção desta rede de inteligência artificial voltada para táxis aéreos e drones é similar ao utilizado por aplicativos como o Google Maps, que une dados mapas, relatórios de acidentes e condições de trânsito para dar ao motorista a oportunidade de escolher o melhor caminho para um determinado momento.
Aeronaves poderão tomar decisões cruciais em um estalar de dedos (Imagem: Divulgação/NASA)
Foto: Canaltech
"As decisões necessárias para as aeronaves autônomas do futuro podem ser tomadas de maneira semelhante. E a rede, ou "tecido" de inteligência habilitado pelo DRF fornecerá informações críticas aos operadores e aeronaves autônomas, onde quer que estejam, para tomar decisões a tempo", diz o material oficial da Agência Espacial.
Testes reais
A NASA iniciou os testes com o DRF na região de Phoenix, nos Estados Unidos. De acordo com a agência, foi feito um estudo em cenários específicos nos quais o DRF pode ser útil no contexto de um voo simulado de drone. A intenção é entregar equipamentos médicos e suprimentos do centro de Phoenix às áreas mais periféricas da região metropolitana.
"Esperamos que este modelo impulsione potencialmente a inovação na indústria, o que pode levar a melhorias na qualidade dos serviços do espaço aéreo", comentou Kenneth Freeman, investigador principal do DRF no Ames Research Center da NASA.
Segundo a NASA, como as informações serão atualizadas em tempo real, o drone terá a capacidade de "tomar decisões por si próprio" e desviar a rota caso objetos ou perigos antes não previstos apareçam pelo caminho.
Sam Altman expressou preocupações sobre os riscos da inteligência artificial, incluindo a disseminação de desinformação e a falta de medidas de segurança
O CEO da OpenAI, Sam Altman, falou em entrevista à ABC News na quinta-feira (16.mar.2022) sobre os riscos da inteligência artificial para o mundo, destacando a importância de se ter cautela com os avanços da nova tecnologia.
Foto: Núcleo Jornalismo
A OpenAI é a empresa por trás do ChatGPT. Na última terça-feira (14.mar), a empresa anunciou o lançamento do GPT-4, o novo modelo de linguagem que promete menos erros, mais precisão e uma capacidade ainda maior de se assemelhar a um ser humano.
"Temos que ter cuidado aqui", disse Altman durante a entrevista. "Eu acho que as pessoas deveriam ficar felizes que estamos um pouco assustados com isso".
Altman defendeu a necessidade de reguladores e a sociedade de maneira geral se envolverem com o ChatGPT e insistiu que o feedback é o que ajudará a frear possíveis consequências negativas que essa tecnologia pode ter.
DESINFORMAÇÃO. O executivo expressou sua preocupação de que modelos de IA sejam usados para disseminar desinformação em larga escala, alertando sobre o que eles chamam de "problema da alucinação", em que o GPT pode afirmar informações inventadas como se fossem fatos.
A versão atual do ChatGPT tem a tendência de sempre concordar com usuários e já replicou até mesmo discurso de ódio.
SEGURANÇA. Altman também se preocupa com outras empresas produzindo modelos de linguagem sem medidas de segurança, que poderiam permitir a disseminação de informações perigosas, como o processo de fabricação de bombas caseiras. Ele propõe que a sociedade "brinque" com os modelos de linguagem enquanto os riscos são baixos, para que as empresas possam aprender como as pessoas usam esses chatbots.
ROUBO DE EMPREGO? Uma das maiores preocupações atualmente é se a IA roubará postos de trabalho de seres humanos. Aparentemente, esta também é uma angústia do CEO da OpenAI. Mas ele advertiu que ferramentas como o ChatGPT, por ora, devem ser vistas como assistentes ao invés de substitutos e que a sociedade deve começar a discutir propostas de regulamentação desde já.
"A criatividade humana é ilimitada e sempre encontramos novos empregos e novas coisas para fazer", disse ele.
LinkedIn quer que textos gerados por IA sejam pontos de partida para conversas entre especialistas.
Sabe aquela impressão de que todo textão do LinkedIn parece ter sido gerado pelo ChatGPT? Está prestes a deixar de ser impressão.
Foto: Núcleo Jornalismo
O QUE HOUVE? Daniel Roth, vice-presidente e editor-chefe do LinkedIn, anunciou a chegada de textos gerados por inteligência artificial à plataforma.
No LinkedIn, os textos de IA funcionam como pontos de partida para debates.
A plataforma, então, convida especialistas nos temas tratados para complementarem, comentarem e corrigirem os textos. Os demais usuários poderão reagir com curtidas às colaborações dos seres humanos.
Segundo Roth, a IA ataca uma dificuldade importante nesse tipo de compartilhamento de conhecimento:
Porque começar uma conversa é mais difícil do que engajar em uma, esses artigos colaborativos facilitam para que profissionais se juntem e acrescentem e aperfeiçoem ideias — que é como o conhecimento compartilhado é criado.
ONDE? COMO? Esta página reúne os textos colaborativos gerados por IA do LinkedIn, todos em inglês.
O rodapé de cada texto traz o caminho para tornar-se colaborador: curtir ou reagir ao texto em questão. Isso é classificado como um pedido pelo LinkedIn.
Alguns textos, como este sobre técnicas para inserir um tema numa conversa de modo sutil, já têm colaborações de seres humanos. Elas aparecem em caixas destacadas numa cor laranja no meio do texto.