A OpenAI divulgou seus planos para combater os riscos associados à sua tecnologia, como a preocupação de possibilitar a aprendizagem de construção de armas químicas e biológicas por indivíduos mal-intencionados. A equipe de “Preparação” da OpenAI, liderada por Aleksander Madry, professor de inteligência artificial do Instituto de Tecnologia de Massachusetts (MIT), recrutará especialistas para monitorar e testar constantemente a tecnologia, alertando a empresa sobre qualquer sinal de perigo.
Quer receber os conteúdos da TrendsCE no seu smartphone?
Acesse o nosso Whatsapp e dê um oi para a gente
O debate sobre os perigos da IA tem crescido, principalmente, devido a popularidade do ChatGPt, com líderes como OpenAI, Google e Microsoft alertando sobre riscos existenciais equiparáveis a pandemias ou armas nucleares.
Enquanto alguns pesquisadores destacam riscos assustadores, outros argumentam que focar em ameaças maiores permite que empresas ignorem os efeitos prejudiciais já presentes. A OpenAI adota uma posição intermediária, reconhecendo os riscos a longo prazo, mas enfatizando a resolução de problemas imediatos e defendendo a comercialização da tecnologia sem prejudicar a competição.
A equipe irá supervisionar como e quando a tecnologia da OpenAI pode orientar as pessoas na prática de hacking ou na fabricação de armas químicas, biológicas e nucleares. Além disso, será avaliado o que as pessoas podem descobrir online por meio de pesquisas regulares. A empresa também permitirá que terceiros independentes qualificados, externos à OpenAI, testem sua tecnologia.
Madry não concorda com a polarização entre aqueles que temem que a IA já tenha ultrapassado a inteligência humana e os que defendem a eliminação de todas as barreiras para o desenvolvimento da IA. Para ele, essa dicotomia é excessivamente simplista, e é crucial realizar esforços para garantir que os benefícios da IA sejam efetivamente alcançados, enquanto os aspectos negativos são minimizados.
*Com informações do Olhar Digital.
Ceará pode ser protagonista em inteligência artificial no campo
Decreto para regulamentar inteligência artificial é assinado nos EUA