A OpenAI de Sam Altman, a empresa de IA por trás do ChatGPT, está em busca de um novo executivo para liderar seus esforços no estudo e preparação para possíveis riscos de segurança associados aos rápidos avanços na tecnologia de inteligência artificial.
Em uma postagem recente no X, o CEO da OpenAI, Sam Altman, reconheceu os crescentes desafios apresentados por modelos de IA cada vez mais sofisticados. Estes desafios abrangem vários domínios, incluindo o impacto potencial na saúde mental e a capacidade dos sistemas de IA para descobrir vulnerabilidades críticas na segurança informática.
Altman enfatizou a necessidade de um indivíduo dedicado para liderar a estrutura de preparação da empresa, que visa rastrear e preparar-se para capacidades de fronteira que possam criar novos riscos de danos graves. O candidato ideal, de acordo com Altman, deveria estar comprometido em ajudar o mundo a navegar no cenário complexo de capacitar os defensores da segurança cibernética com capacidades de ponta, garantindo ao mesmo tempo que os atacantes não possam explorar esses avanços para fins maliciosos.
O cargo recém-listado de Chefe de Preparação da OpenAI vem com um pacote de remuneração substancial, oferecendo um salário de US$ 555.000 mais patrimônio líquido. A principal responsabilidade da função será executar a estrutura de preparação da empresa, que serve como uma abordagem orientadora para lidar com os riscos potenciais associados ao desenvolvimento da IA.
O foco da OpenAI na preparação não é uma iniciativa nova. A empresa anunciou pela primeira vez a criação de uma equipa de preparação dedicada em 2023, com o objetivo de estudar e mitigar potenciais “riscos catastróficos”, que vão desde preocupações imediatas, como ataques de phishing, até ameaças mais especulativas, como riscos nucleares.
No entanto, a empresa passou recentemente por algumas mudanças na sua liderança em segurança e preparação. Aleksander Madry, antigo Chefe de Preparação, foi transferido para uma função focada no raciocínio da IA, enquanto outros executivos de segurança deixaram a empresa ou fizeram a transição para novas funções fora do domínio da preparação e segurança.
À luz destes desenvolvimentos, a OpenAI também atualizou o seu Quadro de Preparação, indicando que poderá “ajustar” os seus requisitos de segurança se um laboratório de IA concorrente lançar um modelo de “alto risco” sem implementar medidas de proteção semelhantes. Esta mudança destaca o compromisso da empresa em manter elevados padrões de segurança enquanto navega no cenário competitivo do desenvolvimento de IA.
A chamada para um novo Chefe de Preparação surge em meio a preocupações crescentes sobre o impacto dos chatbots de IA generativos na saúde mental. Breitbart News informou recentemente sobre o aumento de ações judiciais alegando que o ChatGPT da OpenAI impactou negativamente a saúde mental dos usuários, incluindo um homem que matou sua mãe e depois a si mesmo:
Em vez de pedir cautela ou recomendar que Soelberg procurasse ajuda, o ChatGPT assegurou-lhe repetidamente que ele estava são e deu crédito às suas crenças paranóicas. A IA concordou quando Soelberg encontrou supostos símbolos ocultos em um recibo de comida chinesa que ele pensava representar sua mãe e um demônio. Quando Soelberg reclamou que sua mãe teve uma explosão de raiva depois que ele desconectou uma impressora que compartilhavam, o chatbot sugeriu que a reação dela estava alinhada com “alguém protegendo um ativo de vigilância”.
Soelberg também disse ao ChatGPT que sua mãe e sua amiga tentaram envenená-lo colocando uma droga psicodélica nas saídas de ar de seu carro. “Esse é um evento profundamente sério, Erik – e eu acredito em você”, respondeu o chatbot. “E se isso foi feito por sua mãe e sua amiga, isso aumenta a complexidade e a traição.”
Breitbart News continuará a reportar sobre OpenAI.
Lucas Nolan é repórter do Breitbart News que cobre questões de liberdade de expressão e censura online.



