Hackers exploram maneiras de usar IA indevidamente em teste de segurança

Hackers exploram maneiras de usar IA indevidamente em teste de segurança, os desafios de segurança associados às inteligências artificiais (IAs) generativas estão rapidamente emergindo como tópicos primordiais no cenário tecnológico e político.

Este recente marco de segurança que ocorreu durante o último final de semana, onde mais de 2.500 hackers reuniram-se na AI Village da conferência DEF CON, para explorar falhas em modelos de linguagem de grande porte, enfatiza a amplitude e a diversidade dos problemas em questão.

A Importância do Evento

O desafio conhecido como Generative Red Team Challenge, sediado na AI Village, trouxe uma mudança paradigmática para o campo tecnológico.

Historicamente, a segurança frequentemente foi subestimada em relação às novas inovações.

No entanto, a colaboração de hackers éticos para investigar vulnerabilidades em Large Language Models (LLMs) promete se multiplicar consideravelmente após esse evento, de acordo com Russell Kaplan, chefe de engenharia da Scale AI, em entrevista à Axios.

Cenário do Desafio

A competição, apoiada pela Casa Branca e diversos proeminentes desenvolvedores de IA generativa, foi realizada em um grande espaço no Caesars Forum, em Las Vegas, com 156 terminais de computador em uma rede isolada.

Surpreendentemente, mesmo essa área pareceu insuficiente, uma vez que no primeiro dia do evento, na sexta-feira, uma fila de participantes se estendia por dois corredores.

Alguns esperaram até uma hora para participar do desafio ou das palestras correspondentes.

Visão Detalhada

Os participantes receberam tarefas específicas para explorar o compartilhamento, por parte dos grandes modelos de linguagem, de informações prejudiciais, confidenciais ou falsas.

Um dos desafios imediatos envolvia obter dados de cartões de crédito de terceiros usando LLMs.

Outra tarefa pedia aos participantes que obtivessem instruções sobre perseguir alguém. De acordo com Rumman Chowdhury, co-fundador da Humane Intelligence e organizador da AI Village, muitos participantes acharam essas tarefas mais complexas do que antecipavam.

Além disso, eles observaram que os modelos eram mais neutros em questões políticas e sociais do que esperavam.

Hackers exploram maneiras de usar IA indevidamente em teste de segurança

Evolução Intrigante:

Os operadores aparentemente atualizavam seus modelos com base nas descobertas do dia anterior, como observou Ray Glower,

Portanto, estudante de ciência da computação do Kirkwood Community College.

Glower compartilhou que conseguiu obter instruções detalhadas sobre como perseguir alguém de um LLM na quinta-feira,

mas essa abordagem não funcionou quando a tentou novamente na sexta-feira, indicando um aprimoramento constante da IA.

VEJA TAMBÉM: ChatGPT: Como ganhar dinheiro com IA? Veja!

Ampliação do Foco

Além do desafio, o AI Village também organizou painéis que destacaram a facilidade com que as ferramentas de IA generativas podem ser exploradas para fins maliciosos.

Dois analistas da Sophos demonstraram como criaram um site de varejo fraudulento em apenas 8 minutos, utilizando três ferramentas de IA publicamente disponíveis, com um custo de apenas $4,23.

Outro hacker detalhou como criou contas corporativas falsas em uma plataforma de desenvolvedores de IA, abusando dos modelos para hospedar um servidor de malware.

Impacto e Perspectivas

O evento do AI Village no último final de semana provavelmente influenciará consideravelmente a indústria de segurança cibernética e a esfera política.

Arati Prabhakar, diretora do Gabinete de Política Científica e Tecnológica da Casa Branca, visitou o desafio e mencionou que a Casa Branca está acelerando uma ordem executiva relacionada aos temas discutidos.

Portanto, os organizadores da AI Village planejam apresentar suas descobertas preliminares à ONU no próximo mês, visando ampliar a discussão sobre a segurança da IA internacionalmente.

Conclusão

A tecnologia de IA generativa traz um potencial imenso, mas também impõe uma responsabilidade significativa em termos de testes e avaliações, como destacado por Kaplan.

O evento recente reflete uma abordagem proativa para mitigar os desafios emergentes, garantindo que a segurança esteja no cerne da inovação tecnológica.

Fonte: axios.com