Um acidente fatal de um carro autônomo da Uber ocorrido há 5 anos expôs problemas no ambiente de trabalho da inteligência artificial que as empresas ainda precisam resolver.

Acidente fatal de carro autônomo da Uber expôs problemas no ambiente de trabalho da inteligência artificial que empresas precisam resolver.

Ao passo que a maioria das pessoas desligava na sexta-feira à noite para aproveitar mais um fim de semana de verão escaldante, um caso legal histórico sobre quem é responsável quando a IA está diretamente envolvida em danos físicos no mundo real finalmente chegou ao fim após cinco anos.

Rafaela Vasquez, a operadora atrás do volante de um carro de teste autônomo da Uber que atingiu e matou um pedestre em Tempe, Arizona, em 2018, se declarou culpada de um crime de colocar em perigo. O juiz da Corte Superior do Condado de Maricopa, David Garbarino, aceitou o acordo de confissão e a condenou a três anos de liberdade condicional supervisionada, encerrando o caso de vez. Vasquez foi originalmente acusada de homicídio culposo, um crime grave que acarreta uma pena de até oito anos de prisão.

O acidente de 2018, onde uma mulher chamada Elaine Herzberg foi morta enquanto atravessava a rua de bicicleta, foi a primeira colisão fatal envolvendo um veículo totalmente autônomo. O caso prendeu a atenção dos observadores, já que a Uber e Vasquez buscavam desviar a culpa por uma situação que não apenas carecia de precedentes, mas também suscitava várias questões sobre responsabilidade em um mundo onde trabalhadores humanos estão cada vez mais monitorando máquinas de IA, seguindo as direções de algoritmos e enfrentando os sistemas de IA imperfeitos construídos por engenheiros corporativos.

Quando o acidente aconteceu inicialmente, Vasquez pensou que a Uber a apoiaria, de acordo com uma entrevista detalhada publicada no ano passado pela Wired. Ela estava genuinamente empolgada com a indústria em crescimento e se via como uma orgulhosa responsável pela empresa, fazendo seu trabalho de monitorar os veículos autônomos da empresa enquanto eles acumulavam milhas de prática. Arizona, que estava flexibilizando as restrições para atrair mais negócios de empresas de Silicon Valley, havia se tornado recentemente um refúgio para o programa de testes de estrada da Uber depois que a Califórnia revogou o registro dos carros da Uber. O examinador médico rotulou oficialmente a morte de Herzberg como um acidente, e a Uber inicialmente forneceu a Vasquez um advogado, mas as interações com seu supervisor rapidamente passaram de “consoladoras para perturbadoras”, de acordo com a Wired.

A situação realmente mudou para Velasquez quando a investigação revelou que seu telefone pessoal estava transmitindo o programa de televisão The Voice no momento do acidente. As imagens da câmera do painel do carro também mostraram que ela estava olhando para baixo nos momentos antes da colisão, e a análise policial posteriormente determinou que Vasquez poderia ter assumido o controle do carro a tempo e considerou o incidente “totalmente evitável”.

Embora o caso não tenha sido a julgamento, a defesa de Vasquez se baseou em argumentos que apontavam a culpabilidade de seu empregador. Em petições legais, Vasquez afirmou que não estava assistindo, mas apenas ouvindo The Voice, o que era permitido de acordo com as diretrizes da Uber. E quando ela estava olhando para baixo, era para verificar mensagens do Slack em seu dispositivo de trabalho, que ela disse precisar ser monitorado em tempo real. Isso era historicamente feito por um segundo operador, mas a Uber havia revogado recentemente a exigência de ter dois operadores de teste em cada veículo e agora tinha motoristas de backup como Vasquez trabalhando sozinha. Isso alterava a dinâmica do trabalho, incluindo como os operadores inseriam seu feedback no sistema de direção e levava a plantões solitários e longos circulando pelas mesmas estradas, geralmente sem incidentes ou necessidade de intervenção.

Em outra parte fundamental de sua defesa pré-julgamento, os advogados de Vasquez citaram uma decisão da Junta Nacional de Segurança no Transporte que constatou que o carro não identificou Herzberg como uma pedestre, o que causou a falha nos freios. A junta também constatou que a Uber tinha “uma cultura de segurança inadequada” e falhou em prevenir a “complacência com a automação” entre seus operadores de teste, um fenômeno bem documentado em que os trabalhadores encarregados de monitorar sistemas automatizados passam a confiar que as máquinas têm tudo sob controle e param de prestar atenção. Além disso, um ex-gerente de operações da empresa fez uma denúncia de irregularidades nas práticas de segurança na divisão de carros autônomos apenas dias antes do acidente.

“Essa história destaca mais uma vez que acidentes envolvendo IA são frequentemente ‘problemas de muitas mãos’ em que diferentes agentes têm sua parcela de responsabilidade”, disse Filippo Santoni de Sio, professor de ética e filosofia da tecnologia na Universidade de Tecnologia de Delft, especializado em responsabilidade moral e legal de IA e robótica. Ele já escreveu sobre esse caso.

“Embora a Uber ou os reguladores tenham se livrado das investigações legais”, acrescentou ele, “eles claramente têm uma grande parcela de responsabilidade moral pela morte de Elaine Herzberg.”

À medida que empresas de diversos setores integram rapidamente a IA em ritmo acelerado, há uma necessidade urgente de questionar as questões morais, éticas e empresariais que surgem quando os trabalhadores humanos trabalham cada vez mais com e sob as ordens de sistemas de IA nos quais não tiveram nenhum papel na criação.

Somente na semana passada, o senador democrata da Pensilvânia, Bob Casey, argumentou que a inteligência artificial (A.I.) será a próxima fronteira na luta pelos direitos dos trabalhadores e apresentou dois projetos de lei para regular a tecnologia no local de trabalho. Um deles, chamado “Lei Sem Chefes Robôs”, proibiria as empresas de usar sistemas automatizados e algorítmicos para tomar decisões que afetam o emprego, enquanto o outro visa a vigilância no local de trabalho por meio da A.I. Nenhum desses projetos se relaciona diretamente com situações como a de Vasquez (embora pareçam afetar os motoristas direcionados pelo algoritmo da Uber e os funcionários corporativos), mas eles são apenas uma pequena amostra do que o Congresso, a União Europeia e outros governos ao redor do mundo estão considerando em termos de regulação da A.I. no local de trabalho e além. Os direitos dos trabalhadores na era da A.I. estão até mesmo no centro do atual movimento de greve de Hollywood, onde os atores estão lutando contra uma cláusula em seu contrato que permitiria aos estúdios pagar-lhes por um dia de trabalho e, em seguida, replicar sua imagem indefinidamente usando A.I.

“A disputa legal sobre a responsabilidade terminou”, disse Santoni de Sio sobre o caso de Vasquez, “mas o debate ético e político está apenas começando”.

Com isso, aqui está o restante das notícias sobre A.I. desta semana.

Sage Lazzarosagelazzaro.com

A.I. NAS NOTÍCIAS

O Google lança o modelo de robótica RT-2 treinado em seus modelos de linguagem A.I. Isso é de acordo com o New York Times, que obteve uma prévia de um robô de um braço alimentado pela plataforma RT-2. Em uma demonstração, o robô concluiu com sucesso uma variedade de tarefas que exigiam raciocínio e improvisação, como selecionar corretamente o dinossauro quando instruído a “pegar o animal extinto” de uma linha de figuras de animais. Historicamente, os engenheiros treinavam robôs para realizar tarefas mecânicas programando-os com uma lista explícita de instruções, o que significava que os robôs só podiam aprender tarefas lentamente e uma de cada vez, o que os limitava em função. Mas o RT-2, treinado em texto e imagens da internet, aproveita os últimos avanços em grandes modelos de linguagem para permitir que os robôs aprendam novas tarefas por conta própria.

Biden busca limitar os investimentos em A.I. na China. Isso é de acordo com a Bloomberg, que informou que o presidente Joe Biden planeja assinar uma ordem executiva limitando os investimentos críticos em tecnologia dos EUA na China até meados de agosto. A ordem se concentrará em inteligência artificial, semicondutores e computação quântica e espera-se que proíba certas transações, sem impactar os acordos existentes.

Restrições iminentes fazem o preço das GPUs A.I. da Nvidia dispararem na China. Com os EUA reprimindo a troca de tecnologia entre o país e a China, as GPUs A.I. da Nvidia estão sendo vendidas por até US$ 70.000 por unidade, mais do que o dobro do preço de venda nos EUA, de acordo com a Tom’s Hardware. E isso se for possível conseguir uma unidade. Como a maioria dos clusters de A.I. é baseada nas GPUs da Nvidia, há uma alta demanda de empresas que precisam das unidades para suportar seus sistemas à medida que crescem.

Faculdade de direito permite que os alunos usem o ChatGPT e outras A.I. generativas em suas inscrições. A Faculdade de Direito Sandra Day O’Connor da Universidade Estadual do Arizona deu permissão aos candidatos para usarem A.I. generativo para escrever seus materiais de admissão, de acordo com a ANBLE. A diretora Stacy Leeds disse que é apenas “mais uma das ferramentas disponíveis para eles” e que muitos candidatos já pagam por ajuda de consultores profissionais, enquanto a A.I. generativa é amplamente acessível. Os candidatos que usam ferramentas como o ChatGPT em suas inscrições devem certificar que usaram A.I. e que as informações são verdadeiras, assim como são solicitados a fazer se tivessem ajuda de um consultor profissional. A decisão é oposta a outra recente da Faculdade de Direito de Michigan, que proibiu explicitamente os futuros estudantes de usar a tecnologia para admissões.

ATENÇÃO À PESQUISA DE A.I.

O que vem depois dos Transformers? O atual tsunami de avanços em A.I. se deve a uma inovação em particular: o Transformer. Primeiramente descrito em um artigo de pesquisa de 2017 do Google, este tipo de modelo de rede neural quase completamente substituiu suas técnicas antecessoras e agora é a base da maioria dos modelos de aprendizado de máquina dominantes, desde o BERT até os vários modelos GPT da OpenAI, onde o “T” significa Transformer. Agora, pesquisadores de Stanford estão procurando alternativas para a abordagem do Transformer, conhecida por exigir muita capacidade de computação (e ser cara), que poderiam fornecer o mesmo desempenho com mais eficiência, chamando a nova linha de pesquisa de “Monarch Mixer”. Em um teste que envolveu o retratamento do BERT com suas técnicas, que basicamente envolve a substituição dos principais elementos de um Transformer por matrizes Monarch, os pesquisadores dizem ter obtido “resultados bastante decentes, mesmo com menos parâmetros”. Isso não significa que o Transformer está prestes a desaparecer, mas é um começo interessante para o que poderia ser a próxima fase de modelos. Você pode ler o blog de pesquisa aqui.

ANBLE SOBRE A.I.

O chefe do Google no Reino Unido diz que você não pode confiar em seu chatbot Bard para obter informações precisas – Prarthana Prakash

A inteligência artificial generativa vai revolucionar a força de trabalho, diz a McKinsey, obrigando a 12 milhões de mudanças de emprego e automatizando 30% das horas trabalhadas na economia dos EUA até 2030 – Paolo Confino

A CFO da Microsoft, Amy Hood, apresenta um roteiro de investimento em inteligência artificial – Sheryl Estrada

A Netflix quer contratar um “Gerente de Produto” de inteligência artificial com salário de $900.000, à medida que o streaming e a inteligência artificial devastam Hollywood – Chloe Berger

A Microsoft, o Google e a OpenAI acabaram de se tornar membros fundadores do que pode ser o primeiro grupo de pressão de inteligência artificial verdadeiro. A próxima etapa: legisladores escrevem as regras – Paolo Confino

BRAINFOOD

A.I. e os aliens. Além da inteligência artificial, a notícia que chamou a atenção das massas na semana passada foi a audiência bombástica do Comitê de Supervisão da Câmara sobre UAPs (isso significa Fenômenos Anômalos Não Identificados, o novo termo para OVNIs), onde testemunhas afirmaram que o governo dos EUA possui aeronaves e biológicos UAP em seu poder, vem encobrindo um programa de recuperação de acidentes de décadas e está alocando recursos de forma inadequada para financiá-lo, entre outras alegações.

O que não foi mencionado na audiência, que se concentrou principalmente nas implicações para a segurança nacional, é a ambição generalizada em usar a inteligência artificial para rastrear e pesquisar UAPs.

A aprendizagem de máquina, em particular, é útil para processar e dar sentido a grandes quantidades de dados. Na verdade, quando questionados pelo comitê sobre o que precisa ser feito em relação aos UAPs, as três testemunhas, todas ex-militares ou oficiais de inteligência dos EUA, afirmaram que um sistema centralizado para rastrear e analisar dados de UAP deveria ser a maior prioridade.

A Hypergiant, uma empresa de aprendizado de máquina sediada no Texas e contratada pelo governo, que desenvolve infraestrutura crítica para defesa e espaço, é uma das empresas que utiliza a inteligência artificial em busca de UAPs. A empresa desenvolveu seu software CONTACT, ou Contextually Organized Non-Terrestrial Active Capture Tool, para categorizar e analisar avistamentos não identificados capturados por satélites.

Em outro exemplo, uma equipe de desenvolvedores de código aberto decidiu tomar as rédeas e lançou recentemente um projeto chamado Sky 360, estabelecendo 20 estações de monitoramento (e contando) e usando inteligência artificial para detectar e analisar possíveis avistamentos de UAP. O sistema é alimentado pela plataforma de aprendizado de máquina TensorFlow e usa visão computacional para detectar movimento em um quadro em comparação com quadros anteriores.

Ravi Starzl, professor de ciência da computação na Carnegie Mellon, que se concentra em inteligência artificial e análise computacional, afirmou que tem ajudado pessoalmente várias organizações a desenvolver sistemas de aprendizado de máquina para identificar e caracterizar UAPs, incluindo a análise de dados visuais, de radar, áudio e texto.

A NASA também sugeriu o uso de inteligência artificial para examinar dados de UAPs, e de fato a agência já obteve sucesso ao usar inteligência artificial para identificar novos exoplanetas e explorar partes de Marte que de outra forma seriam inacessíveis, entre outros casos de uso. Não está claro se a NASA já utilizou a inteligência artificial em seus esforços relacionados aos UAPs, mas a agência poderá esclarecer essa questão em seu aguardado relatório sobre UAPs, que deverá ser divulgado neste mês.