Inteligência Artificial

OpenAI reforça segurança contra espionagem industrial de rivais chineses

Empresa adota controles mais rígidos, amplia equipe de cibersegurança e isola sistemas offline para proteger seus modelos de IA

Sam Altman: CEO da OpenAI (Justin Sullivan/Getty Images)

Sam Altman: CEO da OpenAI (Justin Sullivan/Getty Images)

Publicado em 8 de julho de 2025 às 10h45.

Preocupada com a proteção de sua propriedade intelectual, a OpenAI tem intensificado suas operações de segurança após alegações de que foi alvo de espionagem de rivais chineses, em especial da DeepSeek. As mudanças incluem controles mais rígidos sobre informações sensíveis e um processo de verificação mais detalhado dos funcionários, conforme fontes do Financial Times.

Esse movimento já vinha sendo realizado desde o ano passado, mas a desenvolvedora da inteligência artificial ChatGPT incrementou ainda mais seus esforços em janeiro. Apesar de negar ligação direta com o lançamento da DeepSeek, que, seis meses depois, enfrenta desafios para se manter competitiva no mercado de IA, as datas coincidem. A OpenAI alega que a rival copiou indevidamente seus modelos usando uma técnica chamada "destilação".

Desde então, a startup se tornou muito mais rigorosa, com a expansão "agressiva" das equipes de segurança, incluindo especialistas em cibersegurança, sob a liderança de Sam Altman. Também foram tomadas outras medidas, incluindo restrições ao acesso de funcionários e necessidade de aprovação explícita para conexão à internet, a fim de proteger a OpenAI de táticas como a "destilação".

Preocupações com espionagem corporativa e roubo de segredos que possam ameaçar a segurança econômica e nacional estão em alta, especialmente em um contexto de aumento global dos gastos bélicos. No ano passado, por exemplo, autoridades dos EUA alertaram empresas de tecnologia sobre os esforços crescentes de adversários estrangeiros, como a China, para adquirir dados sensíveis.

Quais medidas a OpenAI tomou?

Além do aumento da segurança física em seus data centers, para proteger suas tecnologias proprietárias, a OpenAI implementou políticas mais rigorosas em seus escritórios em São Francisco desde o meio do ano passado, restringindo o acesso de funcionários a informações cruciais. A empresa adota um sistema de "tenting", limitando o número de pessoas com acesso a novos algoritmos e produtos.

A OpenAI também isolou suas tecnologias em ambientes separados, mantendo sistemas offline e implementando verificações biométricas nos escritórios. Foi implementada, ainda, uma "política de egressos negados por padrão", visando proteger os parâmetros dos modelos. Com ela, nada pode se conectar à internet sem aprovação explícita.

Em outubro, a empresa contratou Dane Stuckey como chefe de segurança da informação, vindo de sua posição na Palantir, uma startup especializada em software para o governo dos EUA. Stuckey trabalha com Matt Knight, vice-presidente de produtos de segurança da OpenAI, no desenvolvimento de modelos de linguagem para melhorar a defesa cibernética. O general aposentado Paul Nakasone também foi nomeado para o conselho da OpenAI para ajudar na supervisão dessa área.

Além das preocupações com a segurança e a propriedade intelectual, o setor de defesa é visto como um meio estratégico para diversificar receitas e garantir fontes seguras de financiamento. Além da OpenAI, Anthropic, Meta e outras gigantes da tecnologia estão cada vez mais próximas do governo dos EUA para fornecer soluções especializadas para ambientes classificados.

Acompanhe tudo sobre:Inteligência artificialOpenAIDeepSeek

Mais de Inteligência Artificial

Apple perde principal executivo de IA para Meta, diz Bloomberg

Seis meses depois, DeepSeek enfrenta desafios para se manter relevante no mercado de IA

Dois caminhos distintos e um único objetivo na era da IA: Nvidia e Microsoft rumo aos US$ 4 trilhões

Gemini vasculha até seu Gmail para criar 'mensagens mais humanas'