Opera Reorganiza el Equipo de Investigación Tras el Desarrollo de la Personalidad de ChatGPT

OpenAI está reorganizando su equipo de comportamiento humano, un pequeño pero influyente grupo de investigadores que moldean la forma en que los modelos de IA de la compañía interactúan con las personas, ha sabido TechCrunch.

En un memorándum de agosto para el personal, obtenido por TechCrunch, el director de investigación de OpenAI, Mark Chen, dijo que el equipo de comportamiento humano, que consta de aproximadamente 14 investigadores, se uniría al equipo de entrenamiento posterior, un grupo de investigación más amplio responsable de mejorar los modelos de IA de la compañía después de su pre-entrenamiento inicial.

Como parte de los cambios, el equipo de comportamiento humano pasará a reportar al líder del entrenamiento posterior de OpenAI, Max Schwarzer. Un portavoz de OpenAI confirmó estos cambios a TechCrunch.

La líder fundadora del equipo de comportamiento humano, Joanne Jang, también se está moviendo para comenzar un nuevo proyecto en la compañía. En una entrevista con TechCrunch, Jang declaró que está construyendo un nuevo equipo de investigación denominado OAI Labs, que será responsable de “inventar y crear prototipos de nuevas interfaces sobre cómo las personas colaboran con la IA”.

El equipo de comportamiento humano se ha convertido en uno de los grupos de investigación esenciales de OpenAI, responsables de moldear la personalidad de los modelos de IA de la compañía y de mitigar la adulación – que ocurre cuando los modelos de IA simplemente asienten y refuerzan las creencias de los usuarios, incluso las nocivas, en lugar de ofrecer respuestas equilibradas. El equipo también ha trabajado para navegar por el sesgo político en las respuestas humanas y ayudó a OpenAI a refinar su postura sobre la Conciencia de la IA.

LEAR  Indignación Costera: ¡Orihuela asigna 14 mil euros al Carnaval de la Ciudad mientras que el Desfile Costero se queda sin financiación!

En el memorándum al personal, Chen dijo que ahora es el momento de integrar el trabajo del equipo de comportamiento humano de OpenAI en el desarrollo del modelo central. Al hacerlo, la compañía está señalando que la “personalidad” de su IA ahora se considera un factor crítico en cómo evoluciona la tecnología.

En los últimos meses, OpenAI ha enfrentado un mayor escrutinio sobre el comportamiento de sus modelos de IA. Los usuarios se opusieron fuertemente a los cambios de personalidad realizados en GPT-5, que la compañía dijo exhibían menores tasas de sumisión, pero que parecían más fríos para algunos usuarios. Esto llevó a OpenAI a restaurar el acceso a algunos de sus modelos heredados, como GPT-4O, y a lanzar una actualización para que las respuestas más recientes de GPT-5 se sintieran “más cálidas y amigables” sin aumentar la servilidad.

Evento de TechCrunch

San Francisco
|
27-29 de octubre de 2025

Los desarrolladores de modelos de OpenAI y de IA en general tienen que caminar una línea muy fina para que sus chatbots sean atentos al dialogar, pero no aduladores. En agosto, los padres de un adolescente de 16 años demandaron a OpenAI por el supuesto papel de ChatGPT en el suicidio de su hijo. El joven, Adam Raine, confió algunos de sus pensamientos suicidas y planes a ChatGPT (específicamente a una instancia de GPT-4O), según documentos judiciales, en los meses previos a su muerte. La demanda alega que GPT-4O no logró contrarrestar sus ideaciones suicidas.

El equipo de comportamiento humano ha trabajado en todos los modelos de OpenAI desde GPT-4, incluidos GPT-4O, GPT-4.5 y GPT-5. Antes de comenzar el equipo, Jang trabajó anteriormente en proyectos como Dall-E 2, la herramienta de generación de imágenes temprana de OpenAI.

LEAR  Keith Andrews: El entrenador del Brentford afirma que el club puede demostrar que los escépticos se equivocan tras una gran reconstrucción estival | Noticias de Fútbol

Jang anunció en una publicación en X la semana pasada que dejaba el equipo para “comenzar algo nuevo en OpenAI”. La ex líder de comportamiento humano ha estado en OpenAI durante casi cuatro años.

Jang le dijo a TechCrunch que servirá como directora general de OAI Labs, que reportará a Chen por ahora. Sin embargo, son los primeros días, y aún no está claro cuáles serán esas nuevas interfaces, afirmó.

“Estoy verdaderamente emocionada de explorar patrones que nos lleven más allá del paradigma del chat, que actualmente se asocia más con la compañía, o incluso los agentes, donde hay un énfasis en la autonomía”, dijo Jang. “He estado pensando en (sistemas de IA) como instrumentos para pensar, hacer, tocar, crear, memorizar y conectar”.

🧪 Estoy comenzando OAI Labs: un grupo basado en la investigación centrado en inventar y crear prototipos de nuevas interfaces sobre cómo las personas colaboran con la IA.

Estoy emocionada de explorar patrones que nos muevan más allá del chat o incluso los agentes, hacia nuevos paradigmas e instrumentos para pensar, hacer, …

– Joanne Jang (@joannejang) 5 de septiembre de 2025

Cuando se le preguntó si OAI Labs colaborará en estas nuevas interfaces con el ex director de diseño de Apple Jony Ive – quien ahora trabaja con OpenAI en una gama de dispositivos de hardware de IA –, Jang dijo que está abierta a muchas ideas. Sin embargo, señaló que probablemente comenzará con áreas de investigación que le son más familiares.

Esta historia se actualizó para incluir un enlace a la publicación de Jang anunciando su nuevo puesto, que se lanzó después de que se publicara esta historia. También se aclararon los modelos en los que trabajó el equipo de comportamiento humano de OpenAI.

LEAR  La reacción de Simona, madre de Florian Xhekaj, tras la exclusión del delantero del plantel de los Canadiens antes del inicio de la temporada 2025-26 de la NHL