OpenAI Lança Inovador Modelo de IA GPT-4o com Capacidades de Voz e Interpretação de Imagens

A OpenAI, conhecida por suas contribuições revolucionárias no campo da inteligência artificial, anunciou o lançamento de um novo modelo de IA, o GPT-4o. Este modelo avançado não só compreende e gera texto, mas também possui a habilidade de interpretar voz e “ler” imagens, marcando um salto significativo na interação entre humanos e máquinas.

Durante uma conferência recente, Mira Murati, diretora de tecnologia da OpenAI, destacou que o GPT-4o será disponibilizado gratuitamente e é mais eficiente que os modelos anteriores desenvolvidos pela empresa. A nova IA promete ser uma ferramenta poderosa para desenvolvedores e usuários finais, oferecendo uma experiência mais natural e intuitiva.

Em uma demonstração impressionante, o assistente de voz do ChatGPT, baseado no GPT-4o, leu uma história para dormir utilizando diferentes vozes, emoções e tons, mostrando sua versatilidade e capacidade de adaptação. Em outro exemplo de suas capacidades, o assistente de voz resolveu uma equação matemática escrita em uma folha de papel, demonstrando sua habilidade de interpretar informações visuais e fornecer respostas precisas.

Os usuários pagos terão acesso a limites de capacidade maiores, permitindo uma utilização mais extensa das funcionalidades avançadas do modelo. A OpenAI fez esse anúncio estratégico um dia antes da conferência anual para desenvolvedores do Google, sinalizando uma competição acirrada no horizonte da IA.

O GPT-4o representa um marco na jornada da OpenAI e promete transformar a maneira como interagimos com a tecnologia, abrindo novas possibilidades para aplicações em educação, entretenimento e além. Com essa inovação, a OpenAI reafirma seu compromisso com o avanço da inteligência artificial de forma acessível e impactante.

Para mais informações sobre o GPT-4o e suas capacidades, fique atento às atualizações e anúncios futuros da OpenAI.

Compartilhe: