Quem tem culpa nos acidentes dos carros automáticos da Google
Página principal Tecnologia, Google

A Google emitiu uma explicação pomposa para os acidentes dos seus carros, ilibando os veículos de qualquer culpa nos mesmos. Terá razão?

Pouco depois do lançamento de um relatório da Associated Press afirmando que os carros de condução automática da Google estiveram envolvidos em quatro acidentes desde setembro do ano passado, a empresa acaba de efetuar uma publicação em que esclarece os detalhes sobre todos os acidentes que aconteceram com o projeto, desde que saiu para as ruas, há seis anos.

Em primeiro lugar, os números brutos: aconteceram 11 acidentes no total, todos pequenos, que a Google afirma, nunca foram culpa do carro. Sete envolveram a traseira do carro Google com outro veículo, dois foram acidentes de lado, e um outro que envolveu um carro que atravessou um sinal vermelho. No todo, o artigo da Google enfatiza duas coisas:

  1. Os sensores do carro e algoritmos são estatisticamente muito mais atentos e menos propensos a erros humanos quando comparados com um condutor humano;
  2. O comportamento propenso a erros dos humanos em redor do carro está a providenciar algoritmos melhores, fazendo com que o carro Google venha a ser ainda mais seguro do que já é.

Um exemplo de uma coisa idiota que um motorista humano (a roxo) fez perto de um carro Google, cortando a possibilidade de fazer uma curva à direita

Tudo dito, isto é um puro jogo de relações públicas por parte da Google para alterar os acidentes de forma a fazer com que os seus carros de condução automática fiquem com uma boa imagem – e, na verdade, supondo que as estatísticas estão corretas, eles ficaram com uma boa imagem. É uma mensagem muito inteligente que está a ser enviada para o mundo neste momento, tendo em conta que as cidades, os estados, e os governos federais estão a lutar para alterar o pesadelo de regulamentações que serão necessárias para tornar os veículos verdadeiramente autónomos e legais na estrada.

Então, sim: a Google – e outras empresas que estão a trabalhar com esta tecnologia – demonstraram que a tecnologia existe para prevenir que estes carros colidam com pessoas, com outros carros, e com ciclistas, e geralmente certificar-se que não estão a fazer coisas estúpidas na estrada.

O problema, porém, é quando eles são demasiado seguros. Às vezes precisamos de um humano que seja inseguro em vez de um computador.

A Ford trouxe primeiro esta questão à atenção numa recente conversa com Mike Tinskey, o chefe de eletrificação e de infraestrutura da empresa. Além de expandir a rede de carregadores e tecnologias que são necessárias para apoiar os generalizados EVs que estão inevitavelmente a ir pelo cano abaixo, Tinskey partilha a responsabilidade de muitos dos projetos, iniciativas, sobre "Mobilidade Inteligente" de Ford – uma ampla série de projetos apresentados na CES este ano, que envolvem o uso de carros de maneiras incomuns e não-tradicionais: boleias, partilhas de carro, e assim por diante.

Um desses projetos de mobilidade inteligente é chamado de "Reposicionamento Remoto", que permite a um indivíduo sentado num computador conduzir remotamente um veículo que está a milhares de milhas de distância, potencialmente, usando nada mais do que uma conexão LTE e algumas câmaras e sensores. Existe uma variedade de usos potenciais para isto – manobristas remotos, por exemplo – mas outro exemplo que Tinskey levantou foi o de superar os sistemas de condução automática excessivamente cuidadosos do futuro:

"Então está a dizer que, da perspetiva do condutor, o carro vai estar em condução automática, mas na realidade existe alguém a conduzi-lo, de longe? Exatamente. Se alguma vez teve o prazer de ir, por exemplo, à China, e não for agressivo a virar à esquerda, haverão pessoas que vão estar a caminhar à sua frente durante todo o dia. Um veículo autónomo iria acabar por ficar parado para sempre. Um motorista, normalmente só tem que dizer: "Tudo bem, eu vou passar," as pessoas vão parar e o carro pode continuar. Então, vão existir situações em que um motorista remoto pode realmente pilotar um veículo melhor do que um autônomo em determinadas condições. Ou apenas por causa das leis, esse pode ser o caminho que temos de seguir para lidar com esta situação.

Com efeito, tendo em conta a autonomia do veículo da Google – na perspetiva geralmente racional – um carro nunca pode assumir (ou ter esperança, pelo menos) que um pedestre pare ou salte para fora do caminho da maneira que é assumido por um motorista humano. Às vezes, o mais simples movimento (em especial nas cidades mais congestionadas do mundo) exige um grau de movimentos semelhantes aos de um cowboy que um carro autônomo à prova de estupidez nunca pode executar. É necessário existir um caminho em que o carro diga, "bem, eu não posso tomar esta decisão potencialmente idiota, mas posso pedir a um ser humano para fazer isso por mim."

A investigação de condução automática da Google, e da crescente campanha de relações públicas que a rodeia, está híper focada em eliminar tantos perigos quanto possível. Mas, no processo, correm o risco de comprometer as realidades muito humanas que permitem aos carros moverem-se em primeiro lugar. (Coincidentemente, a Google observou que a maioria dos seus acidentes ocorreram em ambientes urbanos, e não nos rurais). É esta última milha de pesquisa – a interação entre veículos autônomos e as selvas urbanas que cada vez mais os rodeiam – que promete ser a mais interessante nos anos vindouros.

Leia também:
Por favor, descreva o erro
Fechar