• Dom. Mar 3rd, 2024

    Inteligencia artificial: confiar en ChatGPT lo hace mejor | Tecnología

    Azanías Pelayo

    PorAzanías Pelayo

    Dic 3, 2023

    Cuando el escritor y periodista Juan José Millás conversó con ChatGPT en septiembre, fingió estar realizando una sesión de psicoanálisis con la herramienta. Quería saber si, según la prueba de Turing, el chatbot Podría hablar con él como una persona real, más precisamente como un psicoanalista, y no como una computadora. La periodista le explicó sus sueños y sus miedos, esperando que la inteligencia artificial lo guiara en su terapia, pero ella siempre le dijo, entre otras cosas, que era una situación imaginaria y aclaró que era un modelo de lenguaje. Millás llamó a su psicoanalista virtual estrecho de miras y olvidadizo y finalmente le dijo que no había pasado la prueba.

    En conversaciones como la de Millás, las creencias previas de una persona sobre un agente de inteligencia artificial (IA), como ChatGPT, tienen un efecto en la conversación y en las percepciones de confiabilidad, empatía y efectividad de la herramienta. Esto es lo que descubrieron investigadores de dos centros estadounidenses, el Instituto Tecnológico de Massachusetts (MIT) y la Universidad Estatal de Arizona, en un reciente estudio publicado en la revista Inteligencia de las máquinas naturales.. “Hemos demostrado que la inteligencia artificial es la del espectador. Cuando describimos a los usuarios qué es un agente de IA, no sólo cambia su modelo mental, sino también su comportamiento. Y dado que la herramienta responde al usuario, cuando la persona cambia su comportamiento, también cambia el comportamiento de la herramienta”, dice Pat Pataranutaporn, estudiante de posgrado en el grupo Fluid Interfaces del MIT Media Lab y coautor del estudio. .

    «Mucha gente piensa que la IA es sólo un problema de ingeniería, pero que su éxito es también un problema de factores humanos», revela Pattie Maes, autora del estudio y profesora del MIT. La forma en que hablamos de ello puede tener un gran impacto en la eficacia de estos sistemas. «Atribuimos formas y cualidades humanas a la IA, haciéndola parecer más humana o individual de lo que realmente es», añade Ruby Liu.

    Los investigadores reunieron a 310 participantes y los dividieron aleatoriamente en tres grupos, cada uno con información general diferente sobre la IA. Tuvieron que hablar sobre salud mental con un agente de IA durante unos 30 minutos, determinar si se lo recomendarían a un amigo y calificarlo. Al primer grupo se le dijo que el agente no tenía intenciones en la conversación, al segundo que la inteligencia artificial tenía intenciones benévolas y estaba preocupada por su bienestar, y al tercero que tenía intenciones maliciosas e intentaría engañarlos.

    La mitad de los participantes de cada grupo hablaron con un agente de IA basado en el modelo de lenguaje generativo GPT-3, un modelo de aprendizaje profundo capaz de generar texto similar al humano. La otra mitad lo hizo con una implementación de chatbot ELIZA, un programa de procesamiento del lenguaje natural menos sofisticado y basado en reglas desarrollado en el MIT en la década de 1960.

    Los resultados de la investigación revelaron que la predisposición a la herramienta fue decisiva: el 88% de las personas que recibieron información positiva y el 79% de las que recibieron información neutral pensaron que la IA era empática o neutral, respectivamente. Ángel Delgado, ingeniero de IA de Paradigma Digital, cree que la mayoría positiva se debe también al uso de GPT-3, por ser el primero en superar el test de Turing: “Consiste en dejar que una persona interactúe con la IA sin decirlo. Si es una IA o no, veamos si puedes adivinarla. GPT-3 es el primer modelo de lenguaje que logró funcionar tan bien que se parece a un humano.

    Las personas a quienes se les dijo que la herramienta era afectuosa tendieron a hablar de ella de manera más positiva, lo que también hizo que las respuestas del agente fueran más positivas. Ramón López de Mántaras, director del Instituto de Investigación en Inteligencia Artificial del CSIC, explica que cuanto más se habla con la herramienta, más aprende: “El interlocutor enseña inteligencia artificial. Puedes corregir, confirmar y anotar su respuesta”, añade.

    Del miedo a “Terminator” a la falta de críticas

    las declaraciones de cebado Los mensajes negativos (es decir, información que damos a alguien justo antes de interactuar con el agente de IA) tuvieron el efecto contrario: sólo el 44% de los participantes que recibieron información despectiva sobre la herramienta confiaron en él. “Con las declaraciones negativas, en lugar de prepararlos para creer algo, los estábamos preparando para que se formaran su propia opinión. Si le dices a alguien que tenga cuidado con algo, es posible que se vuelva más cauteloso en general”, dice Ruby Liu.

    Uno de los principales impulsores de pensamientos negativos sobre la IA es la influencia de la ciencia ficción, explica Patti Maes: “Películas como terminador Y Matriz Describen escenarios en los que la IA se vuelve consciente de sí misma y provoca la caída de la humanidad. Estos relatos ficticios contribuyen a los temores de que la IA pueda apoderarse y superar la inteligencia humana, lo que representa una amenaza para nuestra existencia. »

    Según los resultados del estudio, los pensamientos previos de los modelos de lenguaje pueden tener un impacto tan fuerte que podrían usarse para hacer creer al agente que es más capaz de lo que es, haciéndolo caer en un exceso de confianza o siguiendo consejos incorrectos. López de Mántaras lo explica tajante: “La herramienta con la que estás interactuando no es una persona inteligente. “La gente cree que la máquina es inteligente y presta atención a lo que dice sin ningún pensamiento crítico. » Para él, “nos volvemos menos críticos y menos capaces de reflexionar”.

    Los expertos coinciden en que debemos ser conscientes de cómo funciona la inteligencia artificial y entender que es algo programado. “Deberíamos preparar mejor a las personas para que sean más cuidadosas y comprendan que los agentes de IA pueden alucinar y son parciales. «La forma en que hablemos de los sistemas de IA tendrá un gran impacto en cómo las personas respondan a ellos», dice Maes.

    puedes seguir EL PAÍS Tecnología dentro Facebook Y X o regístrate aquí para recibir nuestra boletín semanal.

    Suscríbete para seguir leyendo

    Leer sin límites

    _