O presidente executivo (CEO) da Anthropic, Dario Amodei, rejeitou a renegociação dos contratos governamentais com o Pentágono que previam o uso militar irrestrito da sua tecnologia, o que levou a tecnológica a ser classificada de alto risco. A empresa processou entretanto os Estados Unidos.
Questionado sobre o uso militar da IA sem supervisão, Carlos Manuel de Oliveira deu a sua posição pessoal sobre o tema.
"É uma posição pessoal, não é científica, mas eu concordo perfeitamente com a Antropic porque há, de facto, riscos evidentes", afirmou o responsável de 'Humantech AI Futures', que foi um dos oradores convidados da conferência da GfK "30 anos a decifrar o mercado", que decorreu no Museu do Oriente, em Lisboa.
"Há as fake news, há a alteração das eleições... Hoje em dia o cidadão comum não consegue distinguir uma imagem, uma notícia, se é verdade, se é falso" e "isso é grave", apontou.
"A questão da Anthropic é, de facto correta, porque não quer ou quer evitar que as suas aplicações sejam utilizadas na guerra, sejam utilizadas para fins bélicos", prosseguiu.
Ou seja, "contrariamente à OpenAI, a Anthropic está a ter uma posição. Portanto, eu concordo perfeitamente e acho que o caminho tem que ser por aí", de haver "medidas de salvaguarda", defendeu, considerando, no entanto, ser difícil porque não há regulamentação nos EUA.
"O que vai acontecer é que todas elas querem ser mais bem-sucedidas, querem chegar ao último patamar e o último patamar pode ser perigoso para a sociedade", advertiu o 'Humantech AI Futures Researcher'.
O caso que envolve a norte-americana de IA Anthropic e os EUA abre as portas do debate sobre o futuro da guerra, na medida em que a inteligência artificial é cada vez mais incorporada no setor militar.

Sem comentários:
Enviar um comentário