Como o retorno de Trump está remodelando as diretrizes de IA da Apple antes do lançamento em 2026

Quando Tim Cook esteve presente na tomada de posse de Donald Trump no início deste ano, parecia apenas mais um momento simbólico de diplomacia corporativa. Dois meses depois, centenas de empreiteiros em Barcelona que trabalham silenciosamente no modelo de inteligência artificial da Apple notam que os seus manuais de formação parecem diferentes. Páginas que antes explicitavam a intolerância e o racismo sistêmico em termos contundentes foram reformuladas. A diversidade e a equidade já não são descritas como valores essenciais, mas como terreno controverso.

A Apple insiste que nada mudou, que seus princípios de IA responsável permanecem intocados. No entanto, o momento das revisões – logo após o regresso de Trump à Casa Branca – levanta questões sobre até que ponto o clima político se infiltra na forma como as grandes tecnologias moldam os seus modelos. Os anotadores que avaliam o chatbot não lançado da Apple agora têm que tratar eleições, vacinas e iniciativas de DEI como assuntos mais delicados, ao lado de pontos críticos bem conhecidos como controle de armas, territórios disputados, etc. Até o nome de Trump, que só apareceu algumas vezes na orientação do ano passado, aparece com muito mais frequência na versão mais recente.

A mudança nos diz menos sobre as respostas específicas que a IA da Apple dará e mais sobre a estrutura invisível por trás delas. Os empreiteiros são solicitados a avaliar as respostas não apenas pela precisão, mas também pela forma como protegem a marca Apple e evitam inflamar a política. Isso inclui policiar cuidadosamente qualquer menção a Tim Cook, Craig Federighi, Eddy Cue e até mesmo a Steve Jobs. A própria Apple se tornou um tema “sensível”, algo que deve ser tratado com cautela em seu próprio manual de treinamento.

Mais leitura:A Apple atualiza as diretrizes de revisão da App Store para desenvolvedores iOS e iPadOS

Este trabalho acontece quase no anonimato. Os empreiteiros não são informados de que trabalham para a Apple, embora os documentos mencionem a empresa dezenas de vezes. Eles passam os dias avaliando cerca de trinta solicitações cada, sinalizando se o chatbot comete discriminação, revela conteúdo protegido por direitos autorais ou tropeça em terreno controverso. Os telefones são proibidos no escritório. É proibido falar sobre o projeto fora do trabalho. É uma estranha mistura de sigilo e repetição, que alguns funcionários comparam a viver dentro de um episódio do programa Severance, da própria Apple.

Ao mesmo tempo, as diretrizes revelam que a Apple está tentando preparar seu sistema para o futuro contra ansiedades mais amplas. Novas secções das directrizes alertam para os “riscos longitudinais”, desde a formação de ligações emocionais pelos utilizadores à IA, à disseminação barata da desinformação em grande escala, ao desaparecimento de empregos sob a automatização. Nenhum destes riscos tem soluções claras nos documentos, apenas o reconhecimento da sua existência.

A Apple afirma que seus princípios não mudaram, que seus modelos são atualizados regularmente com tópicos de avaliação estruturados para torná-los mais seguros. Ainda assim, as edições reflectem a tensão de construir um chatbot de consumo para 2026 num mundo onde a política, os regimes de censura e a imagem corporativa fazem parte dos dados de formação tanto como factos e números. O que a IA eventualmente disser será menos importante do que aquilo que já lhe foi dito para ficar calada.

(atravésPolítico)