A Anthropic, empresa de inteligência artificial, atualizou sua Política de Escalonamento Responsável, um documento que visa detalhar os riscos associados aos Modelos de Linguagem de Grande Escala (LLMs) e as medidas de segurança necessárias para evitar seu uso indevido. Essa atualização é especialmente relevante, considerando as preocupações crescentes sobre o potencial uso de IAs em atividades ilícitas, como o desenvolvimento de armas químicas, biológicas, radiológicas e nucleares (QBRN, na sigla em inglês).
Neste novo contexto, a Anthropic dividiu os riscos em diferentes níveis, cada um exigindo um conjunto específico de medidas de segurança. O objetivo principal é garantir que a utilização das APIs profissionais do LLM Claude não contribua para atividades potencialmente prejudiciais ou perigosas.
Quais os riscos apontados pela Anthropic na criação de armas?
A Anthropic descreve em sua Política de Escalonamento Responsável os níveis de capacidade do Claude e quais medidas devem ser aplicadas de acordo com cada nível de risco. O nível 3 de QBRN (QBRN-3) já possui medidas de segurança em conformidade com os padrões ASL-3 (AI Security Level) Deployed Standard e ASL-3 Security Standard, que são adequadas para evitar o uso indevido da inteligência artificial.
O AI Security Level serve como uma métrica para definir os riscos associados a diferentes LLMs. Por exemplo, o GPT-1, a primeira versão do modelo da OpenAI, apresenta menos riscos em comparação ao GPT-4.5, recentemente lançado. Isso significa que, enquanto o GPT-1 pode ser menos suscetível a ser usado para fraudes, o GPT-4.5 fornece mais capacidades que poderiam ser exploradas para finalidades até mesmo nefastas.
Além do risco de criação de armas QBRN, versões mais avançadas de LLMs também correm o risco de serem utilizadas em ataques cibernéticos em larga escala. O nível QBRN-3 implica que indivíduos com formação técnica, como graduandos em ciências e engenharias, poderiam potencialmente desenvolver e usar armas desse tipo. O impacto dos danos provocados por estas armas pode perdurar a longo prazo, afetando a saúde e o ambiente de áreas contaminadas.
Por sua vez, o nível QBRN-4 é considerado mais crítico, pois envolve a capacidade de ações em larga escala, colocando em risco a segurança nacional. Esse risco está relacionado ao desenvolvimento de armas químicas em países que atualmente não possuem acesso a tecnologia sofisticada. Com investimentos adequados, uma API avançada do LLM Claude poderia ajudar na pesquisa e desenvolvimento de novas armas, facilitando a superação de barreiras técnicas na produção de armamentos QBRN.
Um exemplo alarmante dessa possibilidade poderia ser o programa nuclear iraniano, que, segundo informes do governo dos Estados Unidos, estaria prestes a desenvolver armas nucleares. Nações que buscam estabelecer programas de armamento poderiam recorrer a LLMs para acelerar seus esforços na criação de armas de destruição em massa.
A Anthropic observa que, para um modelo operando em um nível de segurança ASL-4, seriam necessárias medidas que atualmente não estão implementadas nas IAs disponíveis no mercado. Portanto, a cautela se faz necessária a medida que as capacidades dos modelos de IA vão se expandindo.
Implicações e recomendações para o futuro da IA
A atualização da Política de Escalonamento Responsável da Anthropic não é uma resposta apenas às suas preocupações internas, mas reflete um esforço maior da comunidade internacional para regulamentar o uso de IAs. As discussões em torno da ética na IA estão se intensificando à medida que a tecnologia avança, levantando questões sobre a responsabilidade e a segurança. Para limitar os riscos associados ao uso indevido de LLMs como o Claude, é crucial que a indústria adote práticas de segurança robustas e éticas.
Os desenvolvedores e usuários de inteligência artificial devem estar cientes das potenciais consequências de suas criações. A segurança deve ser uma prioridade, integrando processos de auditoria e revisões regulares nas operações de IA. As empresas que trabalham com esses modelos precisam estabelecer diretrizes para prevenção e comprometimento.
Entre as recomendações, destaca-se a importância da transparência na utilização dos LLMs, informando usuários sobre suas capacidades e limitações. Além disso, a colaboração entre governos, empresas e especialistas em segurança da informação é fundamental para desenvolver políticas eficazes que garantam um uso responsável da IA.
À medida que a Inteligência Artificial se torna uma ferramenta presente em diversos setores, a necessidade de segurança se torna mais pertinente. A indústria deve se preparar para um futuro em que a IA seja utilizada em várias frentes, sempre considerando os riscos necessários e adotando precauções para evitar seu uso em atividades que possam prejudicar a sociedade.
Dicas para um uso responsável da IA
- Educação e Treinamento: Promover a capacitação de todos os envolvidos na criação e utilização de IA.
- Avaliações de Risco: Realizar análises frequentes para identificar e mitigar riscos associados ao uso de LLMs.
- Desenvolvimento de Protocolos: Estabelecer padrões de ética e segurança para guiar a utilização de modelos de IA.
- Transparência nas Funcionalidades: Disponibilizar informações claras sobre as capacidades e limitações dos sistemas de IA.
- Colaboração Interdisciplinar: Incentivar o diálogo entre tecnólogos, engenheiros e especialistas em ética e segurança.

