En 2025, un creciente reto emerge en el sector de la salud debido a los ataques cibernéticos, conocidos como “terrorismo digital”, que comprometen la seguridad de los datos de pacientes y profesionales sanitarios. Este fenómeno, que afecta a diferentes industrias, tiene un impacto sustancial en el sector salud.
El avance de las tecnologías emergentes nos pone frente a desafíos significativos en términos de sostenibilidad y eficiencia energética de los sistemas de software. La creciente digitalización y la aparición de herramientas como la inteligencia artificial generativa y el blockchain ya impactan significativamente el porcentaje de emisiones de gases de efecto invernadero. Actualmente, la industria de las tecnologías de la información y comunicación representa entre el 2% y el 7% de las emisiones globales, un número que podría elevarse hasta un 14% para 2040, si no se toman acciones efectivas.
Un equipo internacional de investigadores ha desarrollado un avanzado sistema de control totalmente autónomo para manos protésicas, eliminando la necesidad de señales mioeléctricas tradicionales. Este innovador sistema se basa únicamente en la visión, permitiendo que la mano protésica capture y libere objetos automáticamente usando una cámara montada en la muñeca. Al utilizar un modelo de aprendizaje por imitación, el sistema es capaz de discernir entre diferentes formas de objetos y ajustar su fuerza de agarre de manera apropiada.
Un reciente estudio ha puesto bajo la lupa la viabilidad de las prácticas sostenibles dentro del código generado por herramientas de inteligencia artificial generativa. La investigación, llevada a cabo por un equipo de investigadores de Accenture, destapa que las populares herramientas AI, tales como ChatGPT, BARD y Github Copilot, tienden a crear código que no sigue las pautas de eficiencia energética, lo que podría traducirse en un incremento en las emisiones de carbono si se dejan sin ajustar.
Investigadores de diversas instituciones académicas han desarrollado un innovador modelo basado en redes neuronales de grafos (GNN) para mejorar la predicción de incidentes urbanos en ciudades como Nueva York. Este modelo integra datos de inspección gubernamental y reportes crowdsourced, superando las limitaciones de analizar cada uno por separado.
En un mundo donde la inteligencia artificial (IA) está cada vez más presente en nuestras vidas cotidianas, un reciente estudio de la Universidad de Zúrich ha puesto el foco sobre el papel de las investigaciones interdisciplinarias en el campo de la ética y las preocupaciones sociales en la IA. Análisis de más de 100,000 artículos relacionados con IA publicados en ArXiv entre 2014 y 2024 revela un paisaje en evolución donde el protagonismo de los equipos exclusivamente técnicos está creciendo inesperadamente.
La creciente adopción de la inteligencia artificial generativa ha puesto en evidencia el impacto ambiental significativo asociado con el uso de Modelos de Lenguaje de Gran Escala (LLMs). Mientras la comunidad tecnológica celebra los avances en las capacidades de razonamiento y deducción de los LLMs, estos modelos conllevan un elevado costo en término de consumo energético y emisiones de carbono, especialmente durante las inferencias.
En un estudio reciente liderado por investigadores de ETH Zurich y universidades asociadas, se llevó a cabo la comparación de tutores humanos y modelos de lenguaje avanzado (LLMs, por sus siglas en inglés) en el ámbito de tutorías escolares matemáticas. A través de una cuidada evaluación, se les pidió a tutores humanos que calificaran el desempeño de los LLMs frente a humanos reales en criterios como el compromiso, la empatía, el soporte y la concisión.
Canada ha enfrentado una de las temporadas más devastadoras de incendios forestales recientes, lo que ha llevado a una intensificación en el enfoque y desarrollo de métodos para prever estos desastres. Este año, los incendios han causado un daño significativo a los ecosistemas boreales, emitiendo considerables cantidades de dióxido de carbono, lo que resalta el impacto del cambio climático en el aumento de la longitud y severidad de las temporadas de incendios.
En un esfuerzo por mejorar la seguridad de los sistemas de conducción autónoma (ADS), un grupo de investigadores ha desarrollado una nueva técnica de evaluación llamada Causal-Fuzzer. Esta innovadora metodología se centra en el uso de simulaciones para probar la capacidad de los ADS de tratar adecuadamente con escenarios críticos de tráfico y reducir el riesgo de colisiones.
El auge de los Modelos de Lenguaje de Gran Escala (LLMs) está siendo cada vez más notorio debido a su capacidad de impactar significativamente en el consumo energético a través de sus procesos de inferencia. Esta creciente preocupación ha llevado a investigadores de renombre a analizar los desafíos ambientales y económicos derivados del uso de LLMs. Un estudio reciente ha revelado que una gran parte de la energía consumida durante las inferencias es atribuible a la longitud de las respuestas generadas, más que a la longitud de las entradas. Esto pone de manifiesto que reducir la extensión de las respuestas podría aliviar la carga energética sin comprometer la calidad.
Un estudio novedoso aborda la sinergia entre blockchain y edge computing, y su potencial en la mejora de aplicaciones en ciudades inteligentes, gestión de la cadena de suministro y en sectores de energía. Examinando cerca de 1000 trabajos académicos, el informe revela cómo la integración de estas tecnologías descentralizadas soluciona desafíos de larga data, como la escalabilidad y la eficiencia de procesamiento.
La educación ha evolucionado significativamente con la introducción de plataformas tecnológicas que buscan mejorar el aprendizaje. MOSAIC-F, un nuevo marco de retroalimentación personalizada, es ejemplo de ello. Diseñado para mejorar las habilidades de presentación oral de los estudiantes, este sistema integra análisis de aprendizaje multimodal (MMLA), inteligencia artificial (IA) y evaluaciones colaborativas. Desde el comienzo, tanto profesores como compañeros evalúan las presentaciones utilizando rúbricas estandarizadas que combinan evaluaciones cuantitativas y cualitativas, lo que garantiza una entrega estructurada de la retroalimentación.
En un avance que retó los límites de la inteligencia automatizada, el equipo de investigadores de la Universidad de Southern California ha presentado el C OUNSEL B ENCH, un innovador marco de evaluación para modelos de lenguaje de gran tamaño aplicados a la consejería de salud mental. Este modelo se diseñó en colaboración con 100 profesionales de salud mental, con el objetivo de examinar minuciosamente la eficacia y seguridad de las respuestas proporcionadas por IA en escenarios de intervención psicológica en línea.
En un mundo donde la tecnología avanza a pasos agigantados, el uso de vehículos aéreos no tripulados (UAV) se ha expandido enormemente en espacios aéreos de baja altitud, presentando nuevos desafíos en la planificación de trayectorias. A pesar de su potencial, uno de los retos persistentes es lograr una navegación segura y económica en entornos urbanos plenos de obstáculos. Esta problemática ha sido investigada por Yanwei Gong y Xiaolin Chang, quienes han propuesto un innovador enfoque utilizando un modelo híbrido que combina el aprendizaje por refuerzo profundo (DRL) con modelos de lenguaje avanzado (LLM).
Un reciente estudio realizado por investigadores del Instituto de Sistemas Complejos en Palma de Mallorca ha revelado que el uso de tasas de aprendizaje inusualmente altas en la capacitación de redes neurales artificiales (ANN) podría ser clave para optimizar el tiempo de entrenamiento. Este análisis, centrado en la dinámica de tales redes, pone de relieve cómo estas configuraciones pueden inducir un fenómeno intrigante: una transición del algoritmo típico de búsqueda de explotación a un régimen que favorece el equilibrio entre explotación y exploración.
Investigadores alemanes avanzan en técnicas no invasivas para el diagnóstico de trastornos neuronales
En un avance significativo para el ámbito de la salud digital, se ha presentado el modelo “RHealthTwin”, un marco estratégico que busca integrar gemelos digitales para el bienestar personalizado a través de la inteligencia artificial responsable. La revolución de los grandes modelos de lenguaje (LLMs) ha abierto un abanico de posibilidades en el ámbito médico, especialmente en la creación de asistencias médicas activas y plataformas de compromiso para pacientes. Sin embargo, su aplicación en contextos de salud del consumidor ha suscitado preocupaciones sobre la alucinación de datos, los sesgos inherentes y el uso indebido ético.
Un grupo de investigadores de diversas universidades ha dado un nuevo giro a las perturbaciones adversariales físicas (PAPs), presentando un enfoque revolucionario: el SwitchPatch. Esta técnica innovadora permite transformar patches estáticos en ataques dinámicos, adaptándose a escenarios en tiempo real mediante proyecciones de luz de colores naturales. Con SwitchPatch, un solo parche puede lograr múltiples objetivos de ataque sin la necesidad de regenerar ni redeployar nuevos parches para cada objetivo. Esto representa un ahorro significativo en costo y esfuerzo, y aumenta la flexibilidad y eficiencia de los ataques PAP en entornos dinámicos.
En el vertiginoso mundo de los vehículos autónomos, validar la seguridad de estos sistemas es una tarea crítica y desafiante. Los sistemas autónomos deben poder navegar situaciones complejas con altos riesgos asociados, como lo es un cruce de intersecciones, un escenario común en las ciudades. Para afinar esta validación, un equipo de investigadores de la Universidad de Stanford liderado por Juanran Wang ha desarrollado un modelo de difusión de denoising innovador que simula casos potenciales de fallos de vehículos autónomos, centrando su investigación en escenarios de intersecciones peligrosas.
El SakugaFlow se presenta como una herramienta innovadora en el ámbito de la ilustración digital al ofrecer una experiencia de aprendizaje interactiva para principiantes. Diseñado por investigadores del Sony Computer Science Laboratories y la Universidad de Tokio, este sistema integra un tutor basado en un Modelo de Lenguaje Extenso (LLM) que proporciona retroalimentación en tiempo real sobre principios fundamentales de la ilustración como la anatomía y la perspectiva.
La implementación de prácticas seguras en el creciente campo de los modelos de lenguaje visuolingüístico (VLM) es crucial dada su capacidad para interpretar entradas visuales y textuales. Sin embargo, con este avance vienen retos significativos en la interpretación segura de contenidos visuales ambiguos, donde errores podrían permitir que contenidos peligrosos sean aceptados indiscriminadamente. Aquí es donde surge S AFE C OT, un marco que se enfoca en mejorar la capacidad de los VLM para rechazar entradas inseguras sin omitir aquellas que son benignas.
En un reciente estudio, se ha llevado a cabo una evaluación exhaustiva de los modelos de lenguaje de gran tamaño (LLMs, por sus siglas en inglés) en su capacidad para enfrentar desafíos médicos a múltiples niveles cognitivos. La investigación fue llevada a cabo por un equipo reconocido de investigadores de prominentes universidades e instituciones de China y otros países.
Investigadores de la Universidad de Stony Brook y la Universidad Estatal de Pensilvania han desarrollado un nuevo enfoque para defender agentes impulsados por modelos de lenguaje grande (LLMs) contra ataques de puertas traseras. Estos ataques pueden comprometer la seguridad del agente al inyectar funciones maliciosas durante el entrenamiento. Una vez activadas por desencadenantes específicos, estas funciones permiten a los agentes realizar operaciones perjudiciales.
Investigadores han desarrollado un nuevo benchmark llamado AR-Bench para evaluar la capacidad de razonamiento activo en modelos de lenguaje grande (LLM, por sus siglas en inglés) ante información incompleta. A diferencia de los métodos pasivos, que simplemente requieren que el modelo interprete y aplique información dada, el razonamiento activo requiere que el modelo interactúe con su entorno para obtener datos adicionales y así resolver problemas complejos.
El equipo de investigadores de Google DeepMind y YouTube ha dado un paso significativo en el mundo de los sistemas de recomendación. Estos expertos han ideado una innovadora estructura de recomendación serendipitosa basada en Modelos de Lenguaje Multimodal (MLLM), conocida por su capacidad de entender distintos tipos de contenido y perfeccionarse para ofrecer sugerencias más inesperadas y originales, llevadas a cabo en una plataforma de videos cortos que atiende a miles de millones de usuarios.
Innovación en la Generación de Video desde Audio: La Eficiencia del Modelo Mirage
Investigadores de la Universidad de Massachusetts Amherst, en colaboración con Sony AI, han desarrollado una nueva metodología para mejorar la seguridad de los modelos de lenguaje con inteligencia artificial mediante el uso del Aprendizaje por Refuerzo guiado por retroalimentación humana, conocido como HC-RLHF. Esta técnica ofrece garantías de seguridad de alta confianza mientras maximiza la utilidad, desglosando las preferencias humanas en dos componentes: la eficacia y la inofensividad.
1. Temática principal:
En un avance significativo en el campo de la generación de imágenes, investigadores han desarrollado una nueva técnica para la creación de imágenes a partir de un tokenizador altamente comprimido que no requiere entrenamiento. Este enfoque rompe con la tradición de usar modelos generativos complejos y plantea una serie de posibilidades innovadoras en el paradigma de la síntesis de imágenes.
Investigadores del Instituto de Tecnología de Stevens presentan CLAIM-BENCH, un nuevo estándar para evaluar el conocimiento científico de Modelos de Lenguaje Extendido (LLMs) en la identificación y validación de relaciones de afirmación-evidencia en documentos científicos. Este estudio detalla cómo los LLMs, aunque prometen mejorar la productividad y creatividad en la investigación científica, aún enfrentan desafíos significativos al comprender los vínculos lógicos entre afirmaciones científicas y sus correspondientes evidencias.
En el entorno educativo actual, el uso de los Modelos de Lenguaje de Gran Escala (LLMs por sus siglas en inglés) ha ganado popularidad para otorgar retroalimentación en la escritura de los estudiantes. Sin embargo, a menudo, dicha retroalimentación se limita a evaluaciones sobre el producto final, omitiendo el proceso cognitivo subyacente durante la redacción de un ensayo. Un estudio reciente aborda esta brecha introduciendo un sistema innovador basado en el análisis del proceso de escritura a través de captura de teclas y capturas periódicas de textos.
Investigadores del Yong Siew Toh Conservatory of Music de la National University of Singapore han desarrollado AffectMachine-Pop, un innovador sistema de inteligencia artificial diseñado para generar música retro-pop cargada de emociones en tiempo real. Esta tecnología no solo se basa en los valores de “arousal” y “valencia” predeterminados, sino que también puede adaptarse a los estados emocionales en tiempo real de los oyentes, incorporando entradas biofísicas como datos de frecuencia cardíaca (HR) o EEG.
Can Artificial Intelligence Write Like Borges? An Evaluation Protocol for Spanish Microfiction
En un mundo cada vez más conectado por las redes sociales, la lucha contra los discursos de odio multilingües ha recibido un impulso significativo gracias al uso de modelos de lenguaje a gran escala. Este esfuerzo pionero se lleva a cabo en el Instituto Politécnico Nacional de México, donde un equipo encabezado por académicos como Muhammad Usman y Grigori Sidorov ha desarrollado un innovador marco basado en atención mejorada para detectar discursos de odio en inglés, español y urdu.
En la comunidad de aprendizaje automático, la revisión por pares es el pilar para asegurar el avance científico. Sin embargo, esta tradición fundamental enfrenta una crisis de escalabilidad. El crecimiento exponencial en el envío de manuscritos a prestigiosas conferencias como NeurIPS, ICML y ICLR está desbordando la capacidad del limitado número de revisores cualificados. En 2024, NeurIPS recibió 17,491 envíos, diez veces más frente a los 1,678 de 2014, generando serias preocupaciones sobre la calidad y consistencia de las revisiones.
En una era en la que la interacción entre humanos y tecnología se intensifica, el alinear modelos de lenguaje con principios éticos se vuelve imprescindible. QA-LIGN aparece como una innovadora solución en esta línea, rediseñando cómo se recompensan las respuestas de una IA. A diferencia de los métodos tradicionales que utilizan recompensas opacas y monolíticas, QA-LIGN descompone el proceso en principios fundamentales: Honradez, Utilidad e Inocuidad.
En un mundo cada vez más impulsado por la tecnología, el interés en la inteligencia artificial (IA) ha levantado preocupaciones sobre cómo asegurarse de que sea responsable y accesible para todos. En respuesta, un grupo interdisciplinario en la Universidad de Nueva York ha desarrollado “We Are AI: Taking Control of Technology”, un curso innovador que busca desmitificar y empoderar a las comunidades en el manejo ético de la IA.
En el ámbito educativo, la aplicación de técnicas de aprendizaje automático ha demostrado ser una herramienta fundamental para predecir el rendimiento académico de los estudiantes, abordando cuatro factores clave: datos demográficos, comportamiento, rendimiento previo y participación parental. Un estudio reciente ha utilizado modelos de redes neuronales para prever el éxito escolar, basándose en el conjunto de datos SAPData, que contiene registros de estudiantes jordanos de diversos grados.
La tecnología de los Vehículos Aéreos No Tripulados (UAVs) avanza a pasos agigantados, marcando una diferencia notable con respecto a las plataformas tradicionales controladas remotamente. Los llamados UAVs Agénticos se destacan por su capacidad cognitiva y adaptación contextual, lo que les permite operar de manera autónoma y con un comportamiento dirigido por objetivos en entornos reales complejos.
Una universidad en India lidera un enfoque educativo revolucionario para estudiantes de ingeniería de primer año mediante un curso titulado ‘The World of AI’. Este programa didáctico está diseñado para abordar la falta de conocimiento fundamental sobre inteligencia artificial (IA) y sus repercusiones sociales y éticas. El curso se distingue no solo por sus contenidos técnicos, sino también por su enfoque en la aplicación social de estos conocimientos.
En el vertiginoso mundo de la manufactura moderna, la eficiencia y la precisión se han convertido en pilares fundamentales. La innovación tecnológica avanza rápidamente y el sistema AI Maglev Conveyor es un claro ejemplo de cómo la inteligencia artificial y la levitación magnética pueden ser sinónimos de progreso industrial.
En el apasionante mundo del sueño, un fenómeno ha captado la atención de científicos y curiosos por igual: los dormilones naturales cortos. Estos individuos, que logran sobresalir con tan solo cuatro a seis horas de sueño por noche, desafían la norma de requerir ocho horas de descanso nocturno. Esta habilidad, atribuida a ciertas mutaciones genéticas, hace que su sueño sea más eficiente y les permite disfrutar de los mismos beneficios que aquellos que duermen más.
Un estudio reciente dirigido por científicos de la Universidad de Göttingen y la Universidad de Edimburgo ha revelado que en un hipotético escenario donde se interrumpiera el comercio internacional de alimentos, solo Guyana tiene la capacidad de ser completamente autosuficiente. La investigación analizó datos de producción alimentaria de 186 países, centrándose en la autosuficiencia de siete categorías clave de alimentos.
Un nuevo estudio llevado a cabo por un equipo de la Universidad de Groningen, en los Países Bajos, revela una potencial conexión entre el cronotipo de las personas y el riesgo de declive cognitivo. Este estudio se centró en los llamados “búhos nocturnos”, personas que prefieren quedarse despiertas hasta tarde, y sugiere que aquellos con educación universitaria tienen un mayor riesgo de experimentar un deterioro cognitivo.
Investigaciones recientes han demostrado de manera fehaciente la poderosa influencia del ejercicio físico en la lucha contra el cáncer de colon. La publicación en el New England Journal of Medicine reveló los hallazgos del estudio internacional denominado Challenge, presentado en la reunión anual de la American Society of Clinical Oncology en Chicago.
La reciente advertencia sobre la alarmante desaparición de especies arbóreas no es un simple llamado a la reflexión, sino que viene acompañada de datos que resultan en un severo toque de alarma para la humanidad. En 2021, el informe Estado de los Árboles del Mundo reveló que un tercio de las especies de árboles están al borde la extinción, superando en número a todos los mamíferos, aves, anfibios y reptiles amenazados combinados. La magnitud de esta crisis cobra vida al saber que ciertas especies, como la palma Hyophorbe amaricaulis en Mauricio, se limitan a un único ejemplar conocido.
En un despliegue de ingenio y adaptabilidad, los cacatúas con cresta de azufre de Sídney han aprendido a abrir fuentes de agua potable con sus picos y garras. En un estudio publicado el 4 de junio en Biology Letters, los investigadores afirmaron que estos inteligentes cómplices aviares dominan la técnica de girar las fuentes para un gratificante sorbo. El descubrimiento fue realizado por un equipo de científicos liderados por Lucy Aplin, quien junto a Barbara Klump documentaron el comportamiento en el Charlie Bali Reserve, donde las cámaras captaron a los pájaros poniendo a prueba sus habilidades acrobáticas.
Investigadores del Instituto Indio de Información, Tecnología y Gestión Atal Bihari Vajpayee han desarrollado un innovador marco para el análisis de sentimientos en tiempo real de los mensajes en X, la plataforma de redes sociales antes conocida como Twitter. Este sistema emplea una combinación híbrida de técnicas de Procesamiento de Lenguaje Natural (NLP) basadas en reglas y transformadores para evaluar opiniones públicas de manera eficaz, destacando sus aplicaciones en gestión de reputación corporativa y análisis financiero.
Investigadores de diversas universidades han planteado un urgente cambio en la evaluación de los modelos de lenguaje en el ámbito financiero, subrayando que el enfoque debe centrarse en el perfil de riesgo en lugar de las métricas de rendimiento tradicionales. Este cambio de perspectiva es esencial para identificar vulnerabilidades que, aunque pasadas por alto en las evaluaciones convencionales, podrían llevar a pérdidas millonarias.
La reciente creación de Samudra, un emulador oceánico basado en inteligencia artificial, ha dado un nuevo giro a los estudios climáticos al presentar resultados prometedores en simulaciones globales del océano. Este emulador, construido sobre la arquitectura de ConvNeXt UNet, reproduce con gran precisión las variables oceánicas como la temperatura, la salinidad, la altura de la superficie del mar y las velocidades oceánicas horizontales a lo largo de la profundidad completa del océano.
Impulsando la Observación de la Tierra con el Conjunto de Datos WorldStrat
El avance en la tecnología satelital y el aprendizaje automático está a punto de dar un gran salto con la presentación del conjunto de datos WorldStrat, una contribución novedosa para analizar el planeta en alta resolución. Esta base de datos, sin parangón en su diversidad y detalle, emplea imágenes de los satélites SPOT 6/7 de Airbus para capturar detalles a una resolución de 1.5 m/pixel en 10,000 km² de diversas ubicaciones globales.
Investigadores de la Universidad de las Artes de Londres y la organización Charismatic.ai han avanzado en el uso de Modelos de Lenguaje Impresionantes (LLMs) para mejorar la generación automática de historias, un campo en constante evolución dentro de la inteligencia artificial.
EXP-Bench se perfila como un referente crucial para evaluar la capacidad de agentes de IA en conducir experimentos de investigación completa en el campo de la inteligencia artificial. Este marco de evaluación ha sido meticulosamente diseñado para abarcar todas las fases críticas del proceso experimental desde la concepción de la pregunta de investigación hasta la obtención de conclusiones válidas.
Inteligencia Autónoma y la Seguridad en Drones Simulados para Rescate
En un mundo donde los desastres naturales son cada vez más frecuentes, la tecnología autónoma se está convirtiendo en una aliada indispensable en operaciones de rescate, y en este contexto, se han desarrollado sistemas que prometen adaptarse a entornos abiertos con nuevas capacidades de razonamiento y decisión.
La innovación en la investigación participativa y la vigilancia de la salud digital ha dado un gran paso adelante con la introducción del marco CASE. Este marco de código abierto está diseñado para mejorar la preparación ante pandemias mediante plataformas de encuestas digitales adaptativas y sensibles al contexto, integrando respuestas de participantes, datos externos y condiciones temporales para crear flujos de encuestas dinámicas y personalizadas. Tras una década de experiencia, un rediseño arquitectónico en 2024 reafirmó su sostenibilidad y adaptabilidad, optando por una estructura monolítica para simplificar el mantenimiento, reducir dependencias y facilitar su implementación.
Inteligencia Artificial Generativa: Nuevas Perspectivas en la Evaluación Formativa
En un entorno donde las amenazas cibernéticas son cada vez más sofisticadas, un grupo de investigadores de la Universidad Edith Cowan en Australia ha propuesto un marco estructurado para mejorar la colaboración entre humanos e inteligencia artificial (IA) en los Centros de Operaciones de Seguridad (SOC). Este avance promete integrar la autonomía de la IA con una calibración de la confianza y la participación humana efectiva en la toma de decisiones.
Los investigadores de la Universidad de California en San Diego han desarrollado un innovador asistente de generación de código llamado H I LD E, diseñado para mejorar la interacción entre humanos y modelos de lenguaje de inteligencia artificial (LLM). Esta herramienta se centra en mitigar las vulnerabilidades que surgen en el código generado por IA al colocar al programador en el ciclo de toma de decisiones, evitando así el automatismo excesivo que suele presentarse en entornos de programación asistidos por IA.
Un equipo de investigadores de la Fundación Bruno Kessler ha anunciado el lanzamiento de FAMA, el primer modelo fundacional de habla de ciencia abierta a gran escala para los idiomas inglés e italiano. Este ambicioso proyecto fue desarrollado por un equipo de expertos compuesto por Sara Papi, Marco Gaido, Luisa Bentivogli, entre otros destacados nombre, con el propósito de superar las limitaciones de modelos similares, que carecen de transparencia y accesibilidad abierta.
La investigación académica sobre cómo los copilotos basados en inteligencia artificial (IA) pueden personalizar sus respuestas está liderando la vanguardia en la interacción entre humanos y máquinas. En un nuevo estudio, un grupo de académicos, incluidos Saleh Afzoon y Zahra Jahanandish, ha examinado cómo estos sistemas compilan y optimizan las preferencias de los usuarios para mejorar su funcionalidad y adaptabilidad.
“ClearSphere”, un sistema pionero desarrollado por investigadores de la Universidad China de Hong Kong, aspira a revolucionar la forma en que las personas mantienen conversaciones claras en entornos abarrotados mediante el uso de auriculares inteligentes. En ambientes como conferencias o eventos sociales, el “efecto fiesta de cóctel” complica el seguimienthttps://github.com/livekit/livekit?tab=readme-ov-fileo de las conversaciones debido a ruidos de fondo y múltiples interlocutores simultáneos. ClearSphere aborda este problema con soluciones innovadoras que van desde el protocolo de red proyectado para mejorar las discusiones entre múltiples usuarios, hasta la extracción avanzada de conversaciones.
Recientemente se ha presentado el NaijaVoices Dataset como un avance significativo en el panorama de la tecnología del habla multilingüe para idiomas africanos. Este conjunto de datos se destaca por su enfoque innovador de la “agricultura de datos”, implicando una relación recíproca con las comunidades ligadas al idioma, asegurando que estas últimas sean involucradas y beneficiadas en el proceso.
La creciente importancia de los agentes con comportamiento humano en el ámbito de los juegos virtuales nos lleva a explorar los diversos desafíos que estos presentan. Las contribuciones de este estudio se centran en identificar las numerosas dificultades técnicas y conceptuales al implementar inteligencia artificial human-like en videojuegos, un tema de creciente relevancia debido a la inmersión y experiencia de juego mejorada que estos agentes pueden ofrecer.
En un innovador avance en la conducción autónoma, el equipo RB ha presentado el marco DiffVLA, una sofisticada combinación de técnicas de visión y lenguaje aplicadas a la planificación de trayectorias en vehículos autónomos. La novedad radica en la integración de un modelo híbrido de percepción que combina enfoques de percepción densa y dispersa, facilitando un cálculo más eficiente y preciso de las rutas a seguir en entornos complejos.
Científicos de diversas instituciones internacionales han desarrollado Graph Mixing Additive Networks (GMAN), un modelo de aprendizaje que procesa datos temporales irregulares y dispersos para tareas de predicción. GMAN utiliza una arquitectura de redes neuronales de grafos, diseñada para interpretar y aprender de conjuntos de señales temporales que se muestren de manera no uniforme. Este enfoque permite que las redes mezclen gráficos, logrando capturar patrones más complejos con mayor precisión y sin necesidad de llenar los vacíos de datos.
La rápida expansión de los Modelos de Lenguaje de Gran Tamaño (LLM, por sus siglas en inglés), tales como GPT-4 y sus competidores Claude de Anthropic y Gemini de Google, ha transformado el ámbito del procesamiento del lenguaje natural, pero también ha evidenciado innumerables vulnerabilidades de seguridad que deben ser enfrentadas con urgencia. Estos modelos, entrenados con vastos bancos de datos no curados, son ahora utilizados en una variedad de instalaciones comerciales, desde motores de búsqueda hasta herramientas de desarrollo de software y asistentes personales.
En un intento por avanzar en la cesación del tabaquismo, un grupo de investigadores de la Universidad de Toronto ha desarrollado un chatbot llamado MIBot, que utiliza técnicas de entrevista motivacional (MI) completamente generativas para ayudar a los fumadores a dejar el hábito. La innovación radica en el uso de modelos de lenguaje masivo (LLM) que simulan conversaciones motivacionales personalizadas, una tarea tradicionalmente reservada para consejeros humanos.
Los Modelos de Lenguaje Extenso (LLMs, por sus siglas en inglés) han demostrado un notable desempeño en tareas de lenguaje natural, pero su efectividad en el razonamiento sobre datos tabulares sigue siendo un área de debate. Investigaciones recientes han sacado a relucir las limitaciones de los modelos actuales frente a la complejidad de este tipo de tareas y cómo se ven afectados por características y variaciones en la estructura de las tablas.
El auge de las operaciones de influencia patrocinadas por Estados en las redes sociales representa una compleja amenaza en el ámbito digital global. Este fenómeno se despliega en plataformas como Twitter, donde actores estatales de China, Irán y Rusia emplean tácticas lingüísticas diferenciadas para manipular la opinión pública y promover narrativas geopolíticas específicas.
Un nuevo trabajo académico realizado por investigadores de Yale University ha arrojado una nueva luz sobre la posibilidad de detectar automáticamente las “alucinaciones” en los modelos de lenguaje grande (LLM, por sus siglas en inglés). En este estudio, los investigadores establecen un marco teórico que revela la dificultad inherente para detectar automáticamente resultados alucinados si los algoritmos se entrenan únicamente con ejemplos correctos, es decir, en ausencia de retroalimentación explícita sobre errores.
Un enfoque innovador en la revisión sistemática: InsightAgent facilita el proceso en horas
La traducción automática (MT) ha dado un salto trascendental con el advenimiento de los modelos de lenguaje grande (LLMs), que han reconfigurado el panorama de la traducción especialmente en lenguas con bajos recursos. Los investigadores de IIT Patna abordan en una revisión exhaustiva cómo estos LLMs han mejorado la fluidez en las traducciones a través de técnicas innovadoras como el “few-shot prompting” y la transferencia translingual. Aun así, el reto de traducir lenguas menos comunes sigue presente, debido a la escasez de corpus paralelos.
LayerCraft, el revolucionario marco desarrollado para la generación y edición de imágenes a partir de texto, está transformando el ámbito de la creación visual. Con su enfoque modular que emplea modelos de lenguaje de gran escala como agentes autónomos, LayerCraft permite la generación de imágenes estructuradas y por capas, ofreciendo un control sin precedentes sobre la composición espacial y la integración de objetos.
En un esfuerzo por comprender el impacto de los Modelos de Lenguaje de Gran Escala (LLMs) en el mundo real, investigadores han desarrollado REALM, un dataset masivo que documenta más de 94,000 casos de uso de LLMs provenientes de Reddit y artículos de noticias. A partir de estas 94,000 instancias, un significativo 15,000 han sido extraídas de discusiones en Reddit, mientras que los restantes 79,000 provienen de artículos de prensa publicados entre junio de 2020 y diciembre de 2024.
La integración de Modelos de Lenguaje a Gran Escala (LLMs, por sus siglas en inglés) en el ámbito de la atención en salud mental se presenta como una oportunidad histórica para potenciar la accesibilidad, personalización y escalabilidad del soporte en este campo crucial. Sin embargo, este progreso se enfrenta a retos significativos derivados de preocupaciones sobre la ética, sesgo, confianza excesiva y la deshumanización del cuidado, además de las incertidumbres regulatorias.
Un nuevo desafío en la detección de desinformación ha emergido con la presentación del conjunto de datos “Deceptive Humor Dataset” (DHD). En un intento por desenmascarar la manera en que el humor puede ayudar a propagar narrativas engañosas, un equipo de investigadores ha desarrollado este conjunto que incorpora comentarios falsos infundidos de humor, generados utilizando el modelo ChatGPT-4o y etiquetados con niveles de sátira y tipos específicos de humor.
Avance en Apoyo a la Salud Mental: Un Dataset para la Asistencia Conversacional
Philadelphia, 2025 - En respuesta a la creciente demanda de soluciones innovadoras para abordar los trastornos de salud mental, un equipo de investigadores de la Universidad de Pensilvania ha introducido un nuevo recurso revolucionario. Se trata de un conjunto de datos de referencia diseñado específicamente para mejorar la asistencia conversacional en salud mental mediante modelos de lenguaje avanzados.
Investigadores han analizado la complejidad del diseño de prompts en los Modelos de Lenguaje de Gran Escala (LLMs) revelando su impacto sobre el razonamiento. Pese a su éxito en diversas tareas de procesamiento de lenguaje, estos modelos enfrentan limitaciones en razonamiento complejo. Desarrollaron el CoT (Chain of Thought) como alternativa, permitiendo que los modelos superen sus limitaciones al desglosar procesos de razonamiento en etapas comprensibles para el mismo modelo. Sin embargo, muchas soluciones basadas en CoT no se adaptan específicamente a la tarea en cuestión.
Los Modelos de Lenguaje de Gran Escala (LLM) están emergiendo como herramientas de gran impacto en el campo de la bioinformática, revolucionando la forma en la que se analizan y predicen las estructuras y funciones de ADN, ARN, proteínas, así como la expresión de células individuales. Diversos estudios han resaltado el uso de LLM en tareas moleculares complejas, conduciendo a avances significativos en precisión médica.
El software de código abierto enfrenta un cambio significativo en la forma en que se gestionan sus licencias debido a la necesidad de monetización. Durante años, las licencias OSS permitieron a los desarrolladores compartir y mejorar herramientas sin costo, creando una robusta red de bibliotecas y marcos que ahora sustenta gran parte de la infraestructura tecnológica mundial.
Investigadores en colaboración con especialistas de universidades de China y Singapur han desarrollado un algoritmo innovador llamado Collaborative Scatter-Gather Mining (CSGM), destinado a enfrentar el desafío del lavado de dinero entre múltiples instituciones financieras. El propósito de este algoritmo es detectar de manera efectiva subgrupos de lavado de dinero sin comprometer la privacidad y seguridad de los datos de las instituciones involucradas.
Un estudio examina si los modelos de lenguaje pueden imitar el aprendizaje humano
En un reciente estudio, investigadores de la Universidad de Georgetown y la Universidad de Saarland investigaron hasta qué punto los modelos de lenguaje (ML) pueden servir como modelos de adquisición y procesamiento del lenguaje humano. Estos modelos, altamente flexibles en su capacidad de aprender patrones lingüísticos, fueron probados con idiomas tipológicamente inusitados e imposibles, demostrando capacidades de distinción entre lenguas posibles e imposibles.
La influencia del contenido protegido por derechos de autor en los modelos de lenguaje y visión de gran escala (VLMs, por sus siglas en inglés) ha suscitado interés notable entre la comunidad investigadora. El innovador enfoque DIS-CO se presenta para detectar la inclusión de dicho contenido en el proceso de entrenamiento de los VLMs. Al consultar repetidamente a un VLM con cuadros específicos de películas protegidas por derechos, DIS-CO revela la identidad del contenido mediante completaciones de texto libre.
En un innovador estudio publicado recientemente, investigadores de la Universidad de Stanford han desarrollado un nuevo sistema para medir y controlar el grado de lenguaje que se percibe como humano en los Modelos de Lenguaje Grandes (LLMs, por sus siglas en inglés). Bautizado como H UM T, este nuevo método evalúa la probabilidad de que un texto parezca tener un tono humano, una característica que, aunque potencialmente positiva para mejorar la experiencia del usuario, podría acarrear temas más complejos como engaño y dependencia excesiva.
Noticia
En un estudio realizado por expertos de las universidades de Stony Brook y Saskatchewan, se ha analizado el rendimiento de grandes modelos de lenguaje (LLMs, por sus siglas en inglés) como herramientas alternativas a las evaluaciones manuales de escritos académicos. Las conclusiones son alentadoras, ya que estos modelos son capaces de realizar valoraciones analíticas multidimensionales de manera fiable y general.
Investigadores de diversas universidades, como la Universidad de Sídney y Harvard, han analizado el papel de los Modelos de Lenguaje Extensivo (LLMs) en la psicoterapia. Estos modelos tienen un gran potencial para lidiar con las interacciones contextuales necesarias en la salud mental, dado que pueden manejar extensos contextos y razonamiento multiturno. Se propone una taxonomía conceptual que divide la psicoterapia en tres etapas: evaluación, diagnóstico y tratamiento, para examinar los avances y desafíos de los LLMs.
La recolección y el uso de datos genéticos han aumentado significativamente en los últimos años, provocando un nuevo debate acerca de la gobernanza de estos datos. Este auge, impulsado por la disminución de los costos de secuenciación de ADN y los avances en inteligencia artificial (IA), ha ampliado notablemente la base de datos genéticos utilizados en investigaciones de salud pública, especialmente en los Estados Unidos. Desde 2020, el Departamento de Seguridad Nacional (DHS) ha ampliado su base de datos de ADN federal (CODIS) en más de 1,5 millones de personas, muchos de ellos, personas de color, generando preocupaciones sobre la privacidad y la discriminación.
Un estudio reciente de investigadores de la Universidad Estatal de Arizona ha planteado importantes reflexiones sobre la cooperación entre humanos y agentes de inteligencia artificial (IA), centrándose en cómo medir realmente la colaboración en estos equipos mixtos más allá de las meras recompensas de tareas. Los investigadores han propuesto un concepto innovador llamado “interdependencia constructiva” que mide la dependencia mutua de los agentes para lograr un objetivo común, evaluando así la cooperación en equipos humano-agente.
La evolución de los modelos de lenguaje generativo personalizables ha abierto la posibilidad de crear mensajes engañosamente auténticos, planteando preocupaciones sobre la integridad y seguridad online. El Instituto de Ciencia y Tecnología de Austria ha publicado un documento que expone los riesgos emergentes de esta tecnología, que puede replicar fielmente el estilo de escritura de cualquier individuo usando datos personales para ajustarse a sus necesidades específicas.
Descubierta Notable Estrategia de Cuatro Cuadrantes para el Preentrenamiento de Modelos de Lenguaje
El sistema de diálogo basado en refuerzo de valores emocionales, desarrollado por investigadores de la Universidad Nacional de Seúl, ha sido evaluado positivamente por su capacidad para brindar apoyo emocional efectivo a los usuarios. Este método se centra en identificar y reforzar valores humanos importantes durante las conversaciones de apoyo emocional, lo que resulta en una reducción significativa en la intensidad de las emociones negativas de los usuarios, y fomenta un bienestar emocional a largo plazo.
El estudio realizado por Yachao Zhao y su equipo de colaboradores en la Universidad de Tianjin, aborda un tema que ha sido ampliamente discutido en el campo de la inteligencia artificial: los sesgos implícitos y explícitos presentes en los modelos de lenguaje de gran escala. Estos modelos, conocidos como LLMs por sus siglas en inglés, tienen la capacidad de generar patrones lingüísticos complejos, pero también reproducen prejuicios y estereotipos que existen en los datos con los que son entrenados.
En un hito para la interpretación jurídica, un equipo multidisciplinario de la Universidad de Pekín ha desarrollado un marco automatizado que utiliza Grandes Modelos de Lenguaje (LLMs) para reinterpretar conceptos legales vagos. Denominado ATRIE, este sistema ofrece una solución para mitigar la carga de trabajo de los expertos legales, permitiéndoles una eficiencia superior y mejor comprensión de estos conceptos.
Un equipo de investigadores ha explorado el uso de modelos de lenguaje a gran escala (LLMs) como herramientas eficaces para la evaluación psicológica, centrándose en vincular las prácticas psicológicas tradicionales con métodos computacionales. Utilizando cuestionarios psicológicos estandarizados como el Beck Depression Inventory-II (BDI-II), han desarrollado un marco de detección que explota la generación aumentada por recuperación (aRAG).
En la búsqueda de comprender mejor la comunicación humana a través del ámbito de la lingüística computacional, un grupo de investigadores del Instituto Indio de Tecnología de Bombay ha trabajado en la detección automática del fenómeno conocido como “humblebragging”. Este término describe la habilidad de ciertos individuos para alardear subrepticiamente de sus logros o características personales, mensurando tales afirmaciones bajo la apariencia de humildad o queja.
Los avances en los Modelos de Lenguaje de Gran Escala (LLMs) han facilitado de manera notable la producción de textos generados por inteligencia artificial (AIGTs) en diversas plataformas de redes sociales, tales como Medium, Quora y Reddit. Este fenómeno ha tomado importancia debido a su potencial para influir en la opinión pública a través de información eventualmente inexacta o manipulada.
El crecimiento acelerado de las plataformas de redes sociales ha planteado preocupaciones significativas sobre la toxicidad del contenido en línea. La aplicación de modelos de lenguaje grande (LLM) para la detección de toxicidad presenta dos retos cruciales: la falta de conocimiento específico del dominio meta-tóxico, lo que produce falsos negativos; y la sensibilidad excesiva de los LLM al discurso tóxico, lo que genera falsos positivos que limitan la libertad de expresión.
En un esfuerzo por evaluar de manera más efectiva la capacidad de razonamiento matemático de los modelos de lenguaje grande (LLM), un grupo de investigadores ha introducido un nuevo patrón de medición llamado G-Pass@k. Este nuevo enfoque busca abordar las deficiencias observadas en los métodos evaluativos tradicionales utilizados por estos modelos.
Investigadores de la Universidad del Norte de Carolina, Chapel Hill, han propuesto un enfoque revolucionario para el aprendizaje interactivo en modelos de lenguaje de gran tamaño (LLMs), con la introducción del marco INTERACT (aprendizaje INTeractivo para la Transferencia de Conceptos Adaptativos). Este enfoque pionero busca transformar la manera en que los LLMs adquieren y refinan conocimientos, pasando de absorber datos de forma pasiva a participar en diálogos dinamizados por preguntas.