
Imagem: Unplash
Nesta terça-feira (28), a OpenAI, criadora do ChatGPT, confirmou a criação de um Comitê de Segurança e Proteção que irá supervisionar as decisões críticas ligadas aos seus projetos. O grupo vai atuar na avaliação das ideias e salvaguardas de segurança das operações da startup nos próximos 90 dias, para depois relatar o que descobriu e fazer recomendações para melhorar a segurança nos projetos.
Além de fazer um relatório sobre as medidas sugeridas e adotadas, o grupo também terá um papel de destaque nas avaliações do novo modelo de linguagem em desenvolvimento pela startup, o GPT-5.
Farão parte do comitê o CEO da OpenAI, Sam Altman; os diretores Adam D’Angelo, Nicole Seligman e Bret Taylor; e os especialistas técnicos e de políticas da startup, Aleksander Madry, Lilian Weng, John Schumann, Matt Knight e Jakub Pachocki. Novos especialistas ainda devem ser adicionados posteriormente, segundo a empresa, como o ex-diretor de segurança cibernética da Agência de Segurança Nacional dos EUA, Rob Joyce, e um ex-membro do Departamento de Justiça americano, John Carlin.
