Solo noticias

y ya

martes 3 de de 2025

Nueva métrica para controlar el tono humano en modelos de lenguaje

En un innovador estudio publicado recientemente, investigadores de la Universidad de Stanford han desarrollado un nuevo sistema para medir y controlar el grado de lenguaje que se percibe como humano en los Modelos de Lenguaje Grandes (LLMs, por sus siglas en inglés). Bautizado como H UM T, este nuevo método evalúa la probabilidad de que un texto parezca tener un tono humano, una característica que, aunque potencialmente positiva para mejorar la experiencia del usuario, podría acarrear temas más complejos como engaño y dependencia excesiva.

Los investigadores han demostrado que, contrariamente a lo que podría pensarse, los usuarios tienden a preferir respuestas menos humanas de estos modelos de lenguaje en numerosos contextos. A través de una amplia gama de datos recopilados sobre preferencias y uso, se concluyó que las respuestas más alineadas con un tono humano son generalmente menos informativas y pueden fomentar percepciones sociales que polarizan aún más.

Uno de los hallazgos destacados es que el tono humano en las respuestas de los LLMs tiende a correlacionarse con cualidades como calidez, cercanía social, y atributos que podrían percibirse como estereotipos de feminidad y bajo estatus social. Este tipo de percepciones implican un riesgo potencial de reforzar estigmas sociales y promover la confianza ciega en información generada por máquinas.

Para mitigar estos riesgos, el equipo presentó D UM T, un sistema que utiliza la métrica H UM T para disminuir sistemáticamente el grado de humanización de las respuestas generadas, sin sacrificar la calidad del desempeño del modelo de lenguaje. A través de optimizaciones precisas, se busca que las respuestas sean menos antropomórficas, promoviendo información más precisa y directa.

Un aspecto clave de este enfoque es cómo estas herramientas pueden usarse no solo para crear modelos de lenguaje más eficaces, sino para comprender mejor las implicaciones sociales del uso de tales tecnologías. En un panorama donde la inteligencia artificial desempeña roles cada vez más protagónicos, identificar y ajustar cómo estas tecnologías moldean nuestras percepciones es un paso crucial hacia una integración más ética y equitativa.

Concluyendo, se subraya la importancia de avanzar hacia modelos de lenguaje que respeten las normas sociales sin comprometer la autenticidad de la comunicación entre humanos y máquinas. Proyectos como el de H UM T y D UM T ofrecen no solo mejores herramientas para la interacción, sino que también sientan las bases para un diálogo crítico sobre las consecuencias de la artificialización del lenguaje humano.