A regulação da inteligência artificial foi o tema na entrevista do ex-CEO da Starbucks, Howard Schultz, ao editor-chefe do LinkedIn, Daniel Roth. Durante a conversa, o executivo afirmou que o avanço da tecnologia segue o mesmo padrão das redes sociais: sem supervisão e com riscos subestimados. Schultz declarou estar “Preocupado, com P maiúsculo” com os efeitos sociais e econômicos da IA.
Schultz argumentou que os reguladores estão “atrasados e incapazes de ver a curva das consequências sociais”. Segundo ele, essa lentidão repete o que ocorreu no início das plataformas digitais. Para o ex-CEO, a ausência de regras e padrões éticos pode transformar a inovação em uma fonte de instabilidade, reforçando a urgência da regulação da inteligência artificial.
Regulação da inteligência artificial e responsabilidade das empresas
Ao falar sobre as big techs, Schultz citou Elon Musk, Reid Hoffman, Satya Nadella e Bill Gates. Para ele, esses líderes têm responsabilidade moral direta ao definir limites para o uso da IA. Além disso, destacou que as empresas não devem depender apenas de políticas públicas. Elas precisam criar códigos de conduta e mecanismos de transparência para garantir o uso ético da tecnologia.
Mesmo após deixar o comando da Starbucks em 2023, Schultz acompanha a adoção de IA na empresa. Desde junho, a companhia mantém parceria com a OpenAI, voltada à criação de um assistente virtual para apoiar baristas e melhorar o atendimento. O executivo afirmou que essa iniciativa mostra ser possível aplicar a tecnologia de forma inclusiva, produtiva e compatível com a regulação da inteligência artificial.
Como está a regulação da inteligência artificial no mundo
Atualmente, a regulação da inteligência artificial avança em ritmos diferentes no mundo. A União Europeia foi a primeira a aprovar uma lei abrangente, o AI Act, que define níveis de risco e obrigações para cada aplicação.
Nos Estados Unidos, o governo Biden publicou uma ordem executiva com regras de segurança e auditoria. Enquanto isso, a China já impõe normas específicas sobre algoritmos e conteúdo gerado por IA.
No Brasil, o tema está em discussão no Congresso Nacional. O Projeto de Lei 2338/2023 cria diretrizes para o desenvolvimento responsável e ético da tecnologia.
No entanto, apesar dos avanços, especialistas alertam que as regras continuam fragmentadas e sem consenso global. Muitos países ainda tratam o assunto dentro de leis de proteção de dados e direitos digitais, sem um marco exclusivo para IA.
O paralelo entre IA e redes sociais
Por outro lado, Schultz comparou o entusiasmo atual com a IA ao crescimento das redes sociais nos anos 2010. Ele lembrou que o erro foi permitir que plataformas definissem suas próprias regras, priorizando lucro e engajamento. Dessa forma, o risco agora é repetir o mesmo ciclo com a IA, com impactos mais profundos sobre emprego, privacidade e confiança pública.
Debates globais sobre controle e ética na IA
A discussão sobre a regulação da inteligência artificial se intensifica em fórums políticos e nos principais polos tecnológicos. O alerta de Schultz reflete esse impasse: a inovação avança mais rápido que a capacidade de controle institucional. Portanto, equilibrar inovação, ética e segurança será essencial para definir se a IA se tornará um instrumento de progresso ou de desigualdade. Para o ex-CEO, essa decisão precisa ser tomada agora — antes que seja tarde.