A sequência de vitórias da OpenAI tropeça com o relato da falha do projeto ‘Arrakis

A incrível maré de vitórias da OpenAI é abalada pelo relato da falha do projeto 'Arrakis

A primeira informação veio do The Information, que relatou o abandono da OpenAI de um novo modelo de IA chamado Arrakis, nomeado após o planeta deserto em Dune. O Arrakis aparentemente permitiria que a OpenAI executasse seu chatbot ChatGPT de forma mais barata do que usando sua linha de grandes modelos de linguagem GPT. A palavra-chave aqui é “eficiência” e o Arrakis, segundo relatos, não conseguiu atender às expectativas, levando ao cancelamento do projeto até o meio deste ano.

Infelizmente, isso parece ter decepcionado “alguns executivos” do grande apoiador da OpenAI, a Microsoft, que esperavam ver uma demonstração da capacidade da OpenAI de produzir LLMs em alta velocidade.

A decepção também pode esperar por aqueles que não podem esperar pela OpenAI lançar o gadget de IA com o qual ela está supostamente desenvolvendo com o ícone do design Jony Ive, o cara por trás do iPhone. Falando ontem em uma conferência de tecnologia do Wall Street Journal, o CEO Sam Altman não poderia ter soado mais vago: “Acho que há algo ótimo a fazer, mas ainda não sei o que é”.

De acordo com The Verge, Altman disse que não tem “interesse em competir com o smartphone”, o que… parece sensato? Seja lá sobre o que ele está falando, quaisquer esforços em hardware estão “em estágio inicial”, então não há nada para ver por aqui por enquanto.

Enquanto isso, The Verge também relatou uma nova pesquisa – parcialmente apoiada pela própria Microsoft – que mostrou que o GPT-4 é mais “confiável” do que o GPT-3.5, mas também mais propenso a gerar “saídas tóxicas e tendenciosas e vazar informações privadas, tanto nos dados de treinamento quanto no histórico de conversas”. Isso parece ser um problema, embora os pesquisadores também tenham dito que não encontraram evidências dessas vulnerabilidades nos produtos da Microsoft que atualmente estão usando o GPT-4, provavelmente porque esses aplicativos tentam mitigar tais problemas.

Em uma nota mais positiva, a CTO da OpenAI, Mira Murati, disse na conferência do Journal que a ferramenta da OpenAI para detectar imagens geradas por IA é “99% confiável”. Ainda não está claro quando a ferramenta será lançada publicamente.

Quanto ao desenvolvimento do GPT-5, no entanto, Murati relatou que o modelo futuro ainda pode ter o problema de “inventar coisas” que tem afetado os modelos de IA gerativos da OpenAI (e de todos os outros) até o momento. “Fizemos muitos progressos com a questão da alucinação com o GPT-4, mas ainda não estamos onde precisamos”, disse ela.

Ninguém disse que isso seria um caminho tranquilo.


Separadamente, parabéns para minha colega Kylie Robison por conseguir o furo sobre o plano da X de começar a cobrar anualmente $1 de novos usuários se eles quiserem fazer algo além de ler as publicações de outras pessoas. Isso começará na terça-feira como um teste, inicialmente apenas na Nova Zelândia e nas Filipinas. Posteriormente, confirmando a história, a X disse que a medida não seria um “impulsionador de lucro” e foi “desenvolvida para fortalecer nossos esforços já bem-sucedidos para reduzir spam, manipulação de nossa plataforma e atividade de bots”.

No entanto, como Kylie aponta, também é uma ótima maneira para a X obter informações de pagamento dos usuários (e números de telefone), o que será inestimável à medida que a empresa continua sua transição para ser um “aplicativo para tudo” com um aspecto de comércio eletrônico.

Acho que, neste ponto, vale a pena tentar essa mudança, mesmo que as tentativas anteriores de Elon Musk para enfrentar o problema dos bots da X não tenham dado certo. $1 por ano certamente não é suficiente para deter todos os malfeitores, mas adiciona atrito ao processo de criação de bots. E se a X tem um futuro sob a liderança de Musk e da CEO Linda Yaccarino, ele reside nessa visão de “aplicativo para tudo”, porque a receita de anúncios provavelmente não será suficiente tão cedo. A taxa trai o modelo do Twitter? Claro, mas agora deveria estar claro para todos que o Twitter não existe mais.

Quer mandar pensamentos ou sugestões para Data Sheet? Envie uma mensagem aqui.

David Meyer

NOTÍCIAS INTERESSANTES

Chips para a China. Os Estados Unidos podem estar apertando o controle sobre as exportações de chips de alto padrão para a China, mas a ANBLE relata que está oferecendo um “salvador em potencial” para Nvidia, Intel e AMD, solicitando sugestões sobre como eles poderiam continuar vendendo para a China o tipo de chips que poderiam ser usados em sistemas de IA de pequeno e médio porte. As novas restrições ainda alarmaram os investidores da Nvidia, no entanto. O chefe da Arm, Rene Haas, disse ontem que o embargo de chips será complicado de ser feito corretamente devido à complexidade do que vai nas placas de circuito. Enquanto isso, chefes de inteligência ocidentais estão alertando o Vale do Silício de que a China ainda está tentando roubar sua propriedade intelectual.

Starlink para Israel. Israel está conversando com a SpaceX sobre a possibilidade de usar sua rede de satélites Starlink para disponibilizar banda larga em todo o país. De acordo com a Bloomberg, o Ministério das Comunicações de Israel disse que o objetivo é garantir conectividade contínua para as cidades que estão na linha de frente da guerra com o Hamas, baseado na Faixa de Gaza, e o Starlink seria um sistema de backup. A empresa espacial de Elon Musk ainda não fez comentários.

Cansado em um Tesla. Relatos sugerem que a montadora de carros de Musk está prestes a lançar um recurso de “Alerta de Sonolência do Motorista” que envolve as câmeras do veículo monitorando o rosto do motorista em busca de bocejos e piscadas excessivas. Segundo o Electrek, o recurso foi encontrado no manual do proprietário dos Teslas europeus, mas não no manual norte-americano. Enquanto isso, o TechCrunch relata que a Tesla está fazendo lobby por padrões mais rigorosos de economia de combustível nos Estados Unidos, o que provavelmente resultaria em multas significativas por não cumprimento para concorrentes mais antigos, como a GM e a Ford.

EM NOSSO FEED

“Trabalho em equipe é uma faca de dois gumes.”

Dietlind Helene Cymek, autora principal de um estudo da Universidade Técnica de Berlim que sugere que as pessoas que trabalham ao lado de robôs tendem a se tornar mais relaxadas e menos dedicadas ao seu próprio trabalho – assim como fariam ao trabalhar ao lado de um colega confiável e respeitado. Esse fenômeno aparentemente é conhecido como “social loafing”.

CASO VOCÊ TENHA PERDIDO

Bug no X de Elon Musk permitiu que canal de recrutamento de espiões da CIA fosse sequestrado, alerta hacker: ‘Foi uma tempestade perfeita para algo muito ruim acontecer’, por Chloe Taylor

A empresa que fabrica o seu iPhone está expandindo para veículos elétricos e está contando com a Nvidia para ajudar a criar uma ‘fábrica de IA’, por Lionel Lim

Hype de IA impulsiona o financiamento das startups do setor para 17,9 bilhões de dólares, desafiando a queda mais ampla no setor tecnológico, por Bloomberg

Conselho do bilionário investidor em IA, Vinod Khosla, para estudantes universitários: “Tenham uma educação o mais abrangente possível”, por Jeff John Roberts

Revelação de Eric Adams de que ele usa IA para falar mandarim provoca protestos: ‘O prefeito está fazendo deep fakes de si mesmo’, por Associated Press

Reguladores federais estão investigando se os robôs-táxi da Cruise representam riscos aos pedestres após vários acidentes, por Bloomberg

ANTES DE VOCÊ IR EMBORA

Jogo de moderação. Tem algum tempo livre hoje? Então jogue Trust & Safety Tycoon, um novo jogo de Mike Masnick do Techdirt. O jogo é bem como o nome sugere – você é o chefe de confiança e segurança em uma startup de mídia social e precisa navegar por várias situações comuns que uma pessoa desse tipo enfrenta.

Masnick, em um post anunciando o jogo: “Você precisa estabelecer políticas, lidar com vários dilemas, enfrentar pressões internas e externas, ponderar trocas, determinar alocação de recursos e mais, tudo isso enquanto tenta evitar que seu site se torne um caldeirão de ódio, afastando usuários e anunciantes.” É divertido, educativo e deve ser um jogo obrigatório para qualquer pessoa com uma opinião forte sobre como a moderação de conteúdo deve funcionar.

Consegui 1.816 pontos e venci por meio de IPO, depois disso, deixei de assessorar o governo – só se pode aguentar tanto nesse papel.