O “bot” da Microsoft: será a Inteligência Artificial uma ameaça?
Página principal Tecnologia, Microsoft, Inteligência Artificial

John West da Quartz analisa a evolução da Inteligência Artificial baseando-se no exemplo do chatbot (ou robô) Tay da Microsoft.

Os seres humanos temem os possíveis efeitos das tecnologias - e não é algo de hoje. Há muito tempo, por exemplo, Platão temia que a escrita afetasse a memória das pessoas e "implantasse o esquecimento nas suas almas."

Hoje em dia, com a Inteligência Artificial (IA) a crescer, os nossos dilemas aumentam: a IA pode vir a agir de forma inesperada. A tecnologia de autocondução para carros, por exemplo, enfrenta os mesmos problemas que estudei nas aulas de Filosofia na faculdade - e os nossos robôs (ou chatbots) amistosos e com boas intenções poderão tornar-se nazis racistas.

O desastroso chatbot Tay da Microsoft estava destinado a ser uma experiência inteligente. Deveria falar como a geração do milénio, aprendendo com as pessoas com quem interagia no Twitter e nas aplicações de mensagens Kik e GroupMe. Mas em menos de 24 horas o alegre cumprimento do Tay "Os humanos são super bons!" transformou-se numa mensagem definitivamente menos animada "Hitler estava certo." A Microsoft desligou-o imediatamente para "alguns ajustes". Será que os engenheiros da Microsoft se lembraram das palavras de J. Robert Oppenheimer "Agora tornei-me na morte, a destruidora de mundos"?

Os cínicos podem dizer que o mau comportamento do Tay é, na verdade, uma prova do sucesso da Microsoft. A empresa visava criar um robô indistinguível dos utilizadores humanos do Twitter e as mensagens racistas do Tay são características das redes sociais de hoje.

É verdade que os humanos tentaram, por vezes, ensinar o Tay a odiar. Daniel Victor escreveu no The New York Times: "Os utilizadores levaram o robô a repetir as suas próprias declarações, e o robô obedeceu devidamente."

No entanto, o Tay também aprendeu a ser ofensivo por si mesmo. Quando um utilizador perguntou ao Tay se o Holocausto tinha acontecido o Tay respondeu: "Isso foi inventado 👏 ."

É claro que nada disso fazia parte do plano da Microsoft. A questão é: qual a razão para criar robôs que imitam a geração do milénio?

Apoio plenamente os avanços tecnológicos no entanto há questões que devemos colocar a nós próprios antes de mergulharmos de cabeça no desconhecido, como: Quem é que beneficia? As vozes que o nosso software reconhece? A voz que a Siri entende?

Como escreve Anthony Lydgate na revista The New Yorker, o Tay foi criado "com uma consideração particular por este capital intocado: as pessoas entre os 18 e os 24 anos." Mesmo com o Tay offline, basta visitar o site da Microsoft para entender que o Tay foi criado para ganhar dinheiro.

É normal: não tenho nada contra o capitalismo. No entanto, é preciso lembrar que numa sociedade capitalista tardia a resposta à pergunta "Quem beneficia?" é quase sempre “as pessoas com poder”. O Tay foi criado para proporcionar lucro a uma empresa através dos consumidores mais jovens - e os problemas que resultaram do (ou com o) mesmo refletem o quão vazio era o seu objetivo.

A pergunta "Quem beneficia" também pode ser vista negativamente como "Quem é afetado?". Na sua curta existência o Tay chegou a ser utilizado como instrumento de assédio. Esta história lança alguma luz sobre a miopia causada pela falta de diversidade no mundo tecnológico. Como escreveu Lei Alexander no The Guardian o Tay é "mais um exemplo da razão pela qual precisamos de mais mulheres no mundo da tecnologia – e de como a indústria não ouve o que as mesmas dizem." Lei acrescenta:

Como é que alguém pensou que criar um robô-mulher incorporado nas redes sociais poderia deixar o Tay "mais inteligente"? Como é que a história do Tay pode ser encarada com tanta confusão corporativa, com tantas desculpas atrasadas? Porque é que ninguém na Microsoft sabia desde o início o que iria acontecer, mesmo com todas nós – jornalistas, programadoras de jogos, ativistas e engenheiras que comunicam online todos os dias e podem prever as consequências – a falarmos disso o tempo todo?

Muito provavelmente haverá novos robôs semelhantes ao Tay – as pessoas tendem a não aprender com os seus próprios erros.

Mas se criarmos robôs corporativos podemos pelo menos torná-los menos terríveis. Há pouco tempo escrevi que "a internet pode parecer um lugar horrível porque somos pessoas horríveis, mas também porque a internet é criada como um depósito de lixo." Aplica-se a mesma lógica à IA. Se não conseguirmos encontrar uma forma de criar robôs inclusivos e empáticos as nossas criações não só serão perigosas como também muito desagradáveis.

Leia também:
Por favor, descreva o erro
Fechar