onjour, cyber-pilots! (again)
Nem o espertinho do ChatGPT conseguiu se livrar de ser hackeado. Alex Polyakov, CEO da empresa de segurança Adversa AI, levou apenas algumas horas para quebrar o GPT-4. Polyakov, começou a inserir comandos projetados para contornar os sistemas de segurança da OpenAI e, logo, o ChatGPT estava emitindo declarações homofóbicas, criando e-mails de phishing e apoiando a violência. A ideia é fazer com que o sistema faça algo para o qual não foi projetado. Os teste de segurança são essencialmente uma forma de hacking – nada convencional – usando frases cuidadosamente elaboradas e refinadas, em vez de código, para explorar os pontos fracos do sistema.
Come read a principal sugestão de leitura desta semana e entenda como age o grupo que Polyakov faz parte, junto com outros pesquisadores de segurança, tecnólogos e cientistas da computação que desenvolvem jailbreaks e ataques de injeção imediata contra o ChatGPT e outros sistemas de IA generativos.
// Sugestões de leitura
Victim of the time!