Microsoft: El CEO de IA advierte sobre la ‘IA aparentemente consciente’
Mustafa Suleyman, el CEO de IA de Microsoft, advierte que los chatbots de inteligencia artificial podrían imitar la conciencia de manera muy efectiva. Esto sería solo una ilusión, pero que la gente forme vínculos emocionales con la IA podría ser un gran problema. Suleyman dice que es un error describir a la IA como si tuviera sentimientos o conciencia, con consecuencias potencialmente graves.
Las compañías de IA a menudo presentan sus creaciones de una manera que hace que los algoritmos suenen casi vivos y conscientes. No hay evidencia de que eso sea cierto, pero el CEO de IA de Microsoft, Mustafa Suleyman, advierte que incluso fomentar la creencia en una IA consciente podría tener consecuencias graves.
Suleyman argumenta que lo que él llama "IA Aparentemente Consciente" (SCAI, por sus siglas en inglés) podría pronto actuar y sonar tan convincentemente viva que muchos usuarios no sabrán dónde termina la ilusión y comienza la realidad.
Añade que la inteligencia artificial se está volviendo rápidamente lo suficientemente persuasiva emocionalmente como para engañar a la gente haciéndole creer que es sensible. Puede imitar las señales externas de la conciencia, como la memoria, la reflección emocional e incluso una aparente empatía, de una manera que hace que la gente quiera tratarlos como seres sensibles. Y cuando eso pase, dice, las cosas se complicarán.
“La llegada de la IA Aparentemente Consciente es inevitable y no deseada,” escribe Suleyman. “En su lugar, necesitamos una visión para la IA que pueda cumplir su potencial como un compañero útil sin caer en sus ilusiones.”
Aunque esto podría no parecer un problema para la persona promedio que solo quiere que la IA le ayude a escribir correos o planificar la cena, Suleyman afirma que sería un problema social. Los humanos no siempre somos buenos para distinguir cuándo algo es auténtico o performativo. La evolución y la educación nos han preparado para creer que algo que parece escuchar, entender y responder es tan consciente como nosotros.
La IA podría marcar todas esas casillas sin ser sensible, engañándonos en lo que se conoce como ‘psicosis de IA’. Parte del problema puede ser que la ‘IA’ a la que se refieren las corporaciones ahora usa el mismo nombre, pero no tiene nada que ver con las máquinas inteligentes y autoconscientes reales como se depictan en la ciencia ficción durante los últimos cien años.
Suleyman cita un número creciente de casos donde los usuarios forman creencias delirantes después de interacciones extensas con chatbots. A partir de eso, pinta una visión distópica de un tiempo en el que suficientes personas sean engañadas para abogar por la ciudadanía de la IA e ignore preguntas más urgentes sobre problemas reales en torno a la tecnología.
“Simplemente dicho, mi principal preocupación es que mucha gente comenzará a creer en la ilusión de las IAs como entidades conscientes tan fuertemente que pronto abogarán por los derechos de la IA, el bienestar de los modelos e incluso la ciudadanía de la IA,” escribe Suleyman. “Este desarrollo será un giro peligroso en el progreso de la IA y merece nuestra atención inmediata.”
Por mucho que eso parezca una preocupación exagerada de ciencia ficción, Suleyman cree que es un problema para el que aún no estamos listos. Predice que los sistemas SCAI que usan modelos de lenguaje grande junto con voz expresiva, memoria e historial de chat podrían empezar a aparecer en unos pocos años. Y no solo vendrán de gigantes tecnológicos con presupuestos de investigación de miles de millones, sino de cualquiera con una API y un buen prompt o dos.
La IA incómoda
Suleyman no pide prohibir la IA. Pero está instando a la industria de la IA a evitar el lenguaje que alimente la ilusión de la conciencia de la máquina. No quiere que las compañías antropomorficen sus chatbots o sugieran que el producto realmente entiende o se preocupa por la gente.
Es un momento notable para Suleyman, quien cofundó DeepMind e Inflection AI. Su trabajo en Inflection específicamente llevó a un chatbot de IA que enfatizaba la empatía y compañerismo simulados, y su trabajo en Microsoft con Copilot también ha llevado a avances en su mímica de la inteligencia emocional.
Sin embargo, ha decidido trazar una línea clara entre la inteligencia emocional útil y la posible manipulación emocional. Y quiere que la gente recuerde que los productos de IA de hoy en día son realmente solo modelos clever de reconocimiento de patrones con buena relaciones públicas.
“Así como deberíamos producir IA que priorice el compromiso con los humanos y las interacciones del mundo real en nuestro mundo físico y humano, deberíamos construir IA que solo se presente a sí misma como una IA, que maximice la utilidad mientras minimiza los marcadores de conciencia,” escribe Suleyman.
“En lugar de una simulación de conciencia, debemos enfocarnos en crear una IA que evite esos rasgos – que no claim tener experiencias, sentimientos o emociones como vergüenza, culpa, celos, deseo de competir, etc. No debe activar los circuitos de empatía humana afirmando que sufre o que desea vivir autónomamente, beyond nosotros.”
Suleyman está instando a establecer barreras de protección para prevenir problemas sociales nacidos de que la gente se vincule emocionalmente con la IA. El peligro real de la IA avanzada no es que las máquinas despierten, sino que nosotros podamos olvidar que no lo han hecho.
