En el corazón de uno de los debates más controvertidos de la salud pública en Estados Unidos, la desinformación con respecto a las vacunas ha resurgido, esta vez poniendo en peligro la salud de cientos de personas. La alarmante cifra de 900 casos confirmados de sarampión extendiéndose por 25 estados es una clara advertencia del peligro latente. Si bien el sarampión es una enfermedad que podría erradicarse si se lograra una tasa de vacunación del 95%, desde el año 2022, Estados Unidos no ha alcanzado este porcentaje crucial, permitiendo que esta enfermedad extremadamente contagiosa reaparezca.
Una nueva investigación enfrentó a dos teorías prevalentes acerca del origen de la conciencia, generando aún más preguntas en el campo de la neurociencia. La Teoría del Espacio de Trabajo Neuronal Global (GNWT) y la Teoría de la Información Integrada (IIT) han sido puestas a prueba por el Cogitate Consortium, un grupo de 12 laboratorios neutrales que estudian el cerebro para discernir cuál de las teorías ofrece una explicación más precisa sobre cómo emerge la conciencia.
En un avance significativo para el conocimiento ancestral, miembros de la Nación Tribal Picuris Pueblo en Nuevo México han logrado validar sus relatos orales sobre vínculos ancestrales con la antigua sociedad del Cañón Chaco a través de un estudio genético. Este hallazgo, fruto de la colaboración entre representantes del Pueblo Picuris y genetistas, fortalece el eslabón que une a los actuales Picuris con sus antepasados que habitaban en la región hace más de 1,000 años.
Un estudio reciente sobre técnicas de memoria ha revelado que la novedad y la familiaridad son claves para absorber información de manera eficaz. La investigación indica que explorar nuevos entornos puede preparar al cerebro para aprender, aumentando significativamente la capacidad de recordar información nueva. En un experimento, los participantes que exploraron un entorno virtual no familiar retuvieron más palabras que aquellos que recorrieron un espacio ya conocido. Este hallazgo sugiere que las nuevas experiencias crean las condiciones ideales para la asimilación de conocimiento.
En un descubrimiento que cambia nuestra percepción de los seres vegetales, estudios recientes han revelado que las plantas emiten sonidos ultrasónicos cuando están bajo estrés. Este fenómeno, descubierto por el equipo del biólogo evolutivo Lilach Hadany de la Universidad de Tel Aviv, muestra que las plantas son capaces de comunicarse mediante “gritos” que no podemos oír sin la ayuda de tecnología avanzada.
En una innovadora colaboración, empresas biotecnológicas están intentando crear cuero cultivado en laboratorio a partir de colágeno fosilizado de Tyrannosaurus rex. La alianza entre The Organoid Company, especializada en ingeniería genómica, Lab-Grown Leather, que se enfoca en biomateriales sin andamiaje, y la agencia de marketing VML, busca desarrollar este ambicioso proyecto. Según el anuncio, el objetivo es un material más sostenible y ético que el cuero tradicional, evitando así la muerte de animales y los procesos industriales perjudiciales.
Durante los últimos años, los fármacos GLP-1, como Wegovy y Ozempic, se han vuelto populares para la pérdida de peso y el tratamiento de la diabetes tipo 2, ganando atención por provocar cambios inesperados en las preferencias alimenticias de sus usuarios. Estos medicamentos, inicialmente diseñados para incrementar la liberación de insulina, promueven la pérdida de peso al generar una sensación de saciedad que reduce el impulso de consumir grandes cantidades de alimentos.
En los últimos años, la tecnología ha avanzado hasta ofrecer una forma digital de “inmortalidad” mediante la creación de avatares póstumos o “griefbots”. Estas herramientas impulsadas por inteligencia artificial prometen dar vida de manera virtual a nuestros seres queridos que han fallecido. Este fenómeno, aunque fascinante, despierta preocupaciones éticas y de privacidad, una tendencia que ya ha captado la atención de tanto consumidores como expertos en la materia.
El majestuoso volcán Uturuncu, en Bolivia, está dando de qué hablar luego de permanecer inactivo durante más de 250,000 años. A pesar de su apariencia dormida en la superficie, una serie de procesos subterráneos apunta a que Uturuncu no está tan inactivo como parece. Durante las últimas décadas, ha habido actividad sísmica registrada y emanaciones de gas que han modificado el paisaje circundante, otorgándole una forma similar a un sombrero.
Un reciente descubrimiento ha reescrito parte de la historia geológica de Escocia. Investigadores han datado con mayor precisión un impacto de meteorito que golpeó el noroeste de Escocia hace 1,000 millones de años, 200 millones de años más cerca en el tiempo de lo que se creía anteriormente. El fenómeno se registró en el Stac Fada Member, un bloque geológico peculiar por sus capas de rocas fracturadas y minerales alterados por el impacto.
En una fascinante observación durante un eclipse solar, científicos lograron captar cómo los árboles de un bosque en los Alpes Dolomitas en Italia sincronizan sus señales bioeléctricas, no solo respondiendo al fenómeno, sino anticipándolo. Este descubrimiento, encabezado por el profesor Alessandro Chiolerio del Instituto Italiano de Tecnología y la profesora Monica Gagliano de la Universidad Southern Cross de Australia, ofrece una nueva comprensión de las interacciones ecológicas en nivel sofisticado.
La seguridad psicológica, ese intangible que permite a los equipos desarrollarse sin miedo a las represalias, ha demostrado ser un factor crucial en la participación sostenida de colaboradores en proyectos de código abierto. Un equipo de investigadores de la Universidad de Groningen y el University College London se sumergió en el análisis de 60,684 solicitudes de extracción en múltiples repositorios para medir cómo esta seguridad psicológica se relaciona con la participación a corto y largo plazo de los colaboradores en estos proyectos comunitarios.
En los últimos años, el uso de las herramientas digitales y el análisis de datos a gran escala han revolucionado la forma en que enfrentamos pandemias. Un estudio reciente se centra en el uso del Dynamic Time Warping (DTW), una técnica computacional que cuantifica la alineación temporal entre las tendencias de búsqueda en Google y la trayectoria de casos de COVID-19 para validar su utilidad en la vigilancia epidemiológica profunda en el área de Metro Manila, Filipinas.
Investigadores de las universidades de Michigan State y del Sur de California están revolucionando el campo de la evaluación educativa con la propuesta de GradeHITL, un sistema que combina modelos de lenguaje de gran escala (LLMs) con la interacción humana para mejorar la precisión en la corrección de respuestas cortas. El estudio demuestra que el sistema integrado permite una mayor adaptabilidad en los criterios de evaluación, logrando una precisión que se acerca al nivel humano en las evaluaciones educativas.
El equipo del laboratorio Data Lab en el Departamento de Ingeniería Eléctrica y Ciencia de la Computación de la Universidad de Syracuse ha propuesto un nuevo marco llamado SLIM para la detección de noticias falsas. Este esquema innovador sugiere que cantidades limitadas de información específicamente seleccionada pueden ser tan efectivas como el análisis completo de texto para combatir las fake news.
LanDiff: Revolucionando la Generación de Videos Desde Texto
La inteligencia artificial responsable (RAI) se perfila como un marco crucial para abordar las preocupaciones éticas en el desarrollo y despliegue de sistemas de inteligencia artificial. Esta perspectiva toma fuerza a medida que la IA se convierte en una tecnología omnipresente, influyendo en diversos sectores y procesos de toma de decisiones.
Un grupo de investigadores ha desarrollado un estudio riguroso que explora las percepciones públicas hacia las tecnologías de inteligencia artificial (IA) a través de la utilización de metáforas. Utilizando una muestra representativa de 12,000 estadounidenses, los participantes compartieron sus impresiones sobre la IA mediante declaraciones tipo metáfora. Este enfoque reveló que muchas personas visualizan la IA usando metáforas que la representan como “asistentes”, “amigos” o “profesores”, reflejando calidez y competencia.
La inteligencia artificial ha revolucionado el ámbito de la generación de imágenes, pero no está exenta de sesgos culturales profundamente arraigados. Un estudio reciente ha puesto de manifiesto cómo DALL-E, un modelo de última generación que combina el entendimiento visual y lingüístico, reproduce estereotipos animales al generar imágenes.
El establecimiento de la plataforma colaborativa y abierta denominada Open FinLLM Leaderboard está ganando impulso como el nuevo estándar de la inteligencia artificial especializada en finanzas, también conocida como AI financiera. Esta iniciativa busca empoderar a la comunidad con modelos de lenguaje de gran escala que puedan mejorar significativamente tareas complejas en el ámbito financiero, desde el análisis de informes financieros hasta la predicción bursátil.
La nueva propuesta de Microsoft Research advierte sobre los crecientes límites en los diseños actuales de GPUs para cargas de trabajo de inteligencia artificial generativa. Se conoce que las GPUs topes de línea han alcanzado su limitación tanto en tamaño de la estructura como en costos y rendimiento de enfriamiento, lo que lleva a explorar alternativas como las Lite-GPU. Estas unidades más pequeñas proponen una mayor eficiencia al disminuir la complejidad y el costo.
Un equipo de investigadores de diversas instituciones ha desarrollado un modelo innovador de predicción de enfermedades infecciosas basado en redes neuronales informadas por la física. Este modelo, conocido como PINN, muestra una notable capacidad para predecir brotes de enfermedades, incluyendo casos, muertes y hospitalizaciones de COVID-19 en California.
Un innovador enfoque para el auditar la inteligencia artificial generativa, denominado WeAudit, ha sido desarrollado por un equipo de la Universidad Carnegie Mellon. Este sistema está diseñado para permitir que los usuarios identifiquen y evalúen comportamientos perjudiciales en los sistemas de inteligencia artificial, combinando la experiencia del usuario final con las observaciones de los profesionales del sector de la IA.
Mitigación de fallos en modelos de lenguaje natural
Los modelos de lenguaje natural han ganado popularidad gracias a su capacidad de generar respuestas coherentes y precisas. Sin embargo, a pesar de su uso generalizado, enfrentan desafíos significativos en cuanto a la seguridad y la ética de sus resultados. En este sentido, destaca el uso del conjunto de datos Helpful and Harmless (HH) de Anthropic, cuyo propósito es mejorar la alineación de modelos de lenguaje hacia outputs inofensivos y útiles.
El estudio reciente liderado por el Microsoft AI for Good Research Lab presenta un avance significativo en el mapeo de inundaciones a nivel global mediante el uso de imágenes SAR (Radar de Apertura Sintética) de los satélites Sentinel-1.
Investigadores de la Universidad de Zúrich han presentado un novedoso método de transferencia de apariencia en lenguaje de señas, que permite cambiar la apariencia visual del signante en secuencias de poses, sin alterar la información esencial de la seña. Al centrarse en la preservación de la coherencia en movimientos y transiciones, el proyecto busca proporcionar una solución al dilema entre privacidad y utilidad, tan importante en el contexto de las leyes de protección de datos personales en todo el mundo, especialmente en la Unión Europea bajo el Reglamento General de Protección de Datos (GDPR).
Un innovador estudio desarrollado por investigadores de varias universidades, entre ellas la Universidad de Toronto y la de Northwestern, ha explorado la capacidad de los modelos de lenguaje de gran escala (LLM) para personalizar narrativas con un enfoque en la salud mental de jóvenes adultos. Las narrativas adaptadas, generadas por estas avanzadas tecnologías, han mostrado ser efectivas en la reducción de pensamientos negativos y en la promoción de la autorreflexión, involucrando a 346 estudiantes a través de distintos contextos.
Investigadores de la Universidad de Ciencia y Tecnología de China, junto a iFlytek AI Research, han desarrollado el “Transformer de Difusión enmascarada consciente de la calidad” (QA-MDT), un modelo innovador para la generación de música a partir de texto (TTM). Este avance pretende superar los desafíos actuales en la generación de música, donde la calidad de los datos suele ser un obstáculo significativo.
Investigadores del campo de la inteligencia artificial han propuesto un novedoso marco para medir y asegurar la consistencia semántica en los modelos de lenguaje generativo. En el contexto de la generación de lenguaje natural (NLG), estos modelos, conocidos como Large Language Models (LLMs), han demostrado una fluidez y competencia excepcionales en diversas tareas. Sin embargo, su creciente adopción también ha resaltado preocupaciones sobre su confiabilidad y seguridad, especialmente en su capacidad para generar salidas consistentes ante entradas que poseen un significado semántico equivalente.
La inteligencia artificial avanza a pasos agigantados en sus aplicaciones para predecir las fluctuaciones del mercado bursátil. Investigadores del Instituto de Ciencia de la India han desarrollado un enfoque innovador mediante la creación de grafos de conocimiento temporal (SmKG) que integran diversos factores externos que afectan los movimientos bursátiles, superando así las limitaciones de las técnicas tradicionales que solo usan datos históricos.
Investigadores del Departamento de Física de la Universidad George Washington han logrado desarrollar una fórmula novedosa que permite predecir el momento exacto en que una Inteligencia Artificial (IA), concretamente un Modelo de Lenguaje a Gran Escala (LLM) como ChatGPT, puede cambiar repentinamente su comportamiento de respuestas correctas a potencialmente peligrosas o irrelevantes. Este fenómeno, descrito como un “punto de inflexión Jekyll y Hyde”, es crucial para mejorar el entendimiento sobre cómo las IA procesan información.
Khulna, Bangladesh - Navegar por entornos desconocidos presenta desafíos significativos para personas ciegas o con visión reducida. Para abordar estas complejidades, la investigación liderada por Dabbrata Das y colegas ha introducido PathFinder: un sistema de navegación innovador que rompe con las limitaciones de las tecnologías existentes al no depender de mapas tradicionales, sino de sofisticados modelos de lenguaje visual (VLM) y algoritmos de búsqueda en profundidad para ayudar en la detección de rutas seguras sin obstáculos.
Las Comunidades de Energía Local (LECs) presentan una solución prometedora para reducir emisiones de gases de efecto invernadero y costes energéticos. Un estudio en España muestra que cuatro edificios de oficinas que comparten un sistema fotovoltaico centralizado y un sistema de almacenamiento con baterías de iones de litio lograron reducir sus emisiones en un 6% y sus costes eléctricos en un 20%. Este enfoque no solo apunta a mejorar la seguridad energética al disminuir la vulnerabilidad ante cortes de energía, sino que también promueve la transición energética con participación ciudadana.
En un avance significativo para la medicina y la informática, investigadores de la Universidad de Koc, han desarrollado un nuevo sistema de clasificación de neumonía a partir de imágenes de rayos X de tórax. La técnica innovadora emplea un método de Descomposición en Valores Singulares junto con un sistema basado en mínimos cuadrados, lo que promete mejorar la precisión y eficiencia en el diagnóstico.
En un innovador estudio realizado por un equipo de investigadores de la Universidad del Sur de California, se ha desarrollado un marco de aprendizaje profundo para examinar los movimientos oculares y su potencial como marcador objetivo de depresión y tendencias suicidas. Este análisis innovador, basado en la eye-tracking o rastreo ocular, fue aplicado a un grupo de 126 adultos jóvenes, quienes realizaron una tarea de lectura de oraciones emocionalmente cargadas. Los resultados fueron promisores, destacando que este método podría convertirse en una herramienta objetiva para el diagnóstico de trastornos mentales.
Investigadores del Instituto de Tecnología de Massachusetts y otras universidades han desarrollado un novedoso marco de seguridad para sistemas de inteligencia artificial que promete asegurar el cumplimiento de restricciones definidas por el usuario en múltiples dominios. Este esfuerzo surge como respuesta a la creciente aplicación de la IA en áreas críticas como la salud y el transporte, donde la seguridad es una prioridad imperativa.
DYNAMAX: Avance en el Procesamiento Dinámico para Modelos de Lenguaje de Gran Escala
El avance en la tecnología de Procesamiento del Lenguaje Natural (NLP) ha permitido a DYNAMAX presentar un marco de la computación dinámica para arquitecturas Transformer y Mamba, que aumenta la eficiencia manteniendo altas prestaciones.
Muchos pacientes enfrentaron secuelas del COVID-19 que persistieron mucho tiempo después de la infección inicial, un fenómeno conocido como Long COVID o síndrome post-COVID-19. Una reciente investigación ha utilizado métodos de aprendizaje automático para desentrañar estos fenómenos y predecir su intensidad basándose en distintos factores de riesgo.
En el reciente congreso de Inteligencia Artificial celebrado en Atenas, tema de debate ha sido el impacto psicológico al que se enfrentan los miembros de los equipos de “red-teaming” en inteligencia artificial (IA). Estos equipos son fundamentales para asegurar que los modelos de IA no generen contenido dañino. Sin embargo, la adversidad de simular actores malintencionados durante el proceso puede resultar en problemas mentales significativos.
En la búsqueda de optimizar la colaboración entre humanos y la inteligencia artificial (IA) dentro de las organizaciones, recientes investigaciones han formalizado un modelo computacional que evalúa cómo estas interacciones pueden maximizar el rendimiento en diversas tareas. Mediante simulaciones basadas en un modelo NK, los investigadores han logrado detallar en qué casos IA puede sustituir o complementar el trabajo humano, dependiendo de la estructura de la tarea en cuestión.
Un avance significativo en el ámbito de las pruebas automatizadas para aplicaciones Android ha sido desarrollado por investigadores de distintas instituciones. LELANTE utiliza modelos de lenguaje de gran escala para realizar pruebas automáticas, eliminando la necesidad de escribir scripts manualmente, un proceso tradicionalmente largo y propenso a errores.
[Identificación del tema principal]
Tema principal: La resistencia de la comunidad y el uso de tecnologías cartográficas en la controversia por la construcción de un centro de entrenamiento policial en Atlanta.
En un esfuerzo por evaluar cómo se están desarrollando los chatbots de inteligencia artificial, el estudio más reciente revela varias preocupaciones sobre la equidad y la transparencia en el campo. Este análisis tiene como protagonista a Chatbot Arena, una plataforma que se ha consolidado como el estándar para medir el rendimiento de modelos generativos de inteligencia artificial.
La creciente popularidad de las imágenes generadas por modelos de inteligencia artificial ha impulsado la creación de AI-GenBench, un nuevo estándar diseñado para evaluar y mejorar los detectores de contenido generado artificialmente. Este benchmark abarca imágenes generadas por 36 modelos distintos, con el objetivo de proporcionar un marco de evaluación realista que permita a los investigadores y profesionales comprobar la eficacia de los detctores ante la rápida evolución de la tecnología.
Nuevas métricas buscan transformar el marketing musical a través de textos generados automáticamente
Análisis de Seguridad del Código Generado por ChatGPT
En un esfuerzo por mejorar la Adaptación de Interfaces de Usuario (UI), se ha desarrollado un marco integrado de aprendizaje por refuerzo que incorpora retroalimentación humana para perfeccionar las experiencias de usuario. Este enfoque reconoce la deficiencia de las estrategias de adaptación actuales que suelen basarse en modelos predefinidos, carentes de capacidad de respuesta en tiempo real, y apunta a crear agentes de aprendizaje por refuerzo (RL) personalizados para cada usuario, optimizando las adaptaciones de UI de forma más individualista y receptiva.
La creciente complejidad y expansión de los Modelos de Lenguaje Extendido se ha convertido en una gran preocupación para la comunidad tecnológica, ya que introduce múltiples desafíos en términos de seguridad y gestión del ecosistema del LLMSC (Supply Chain de Modelos de Lenguaje Extendido). Un estudio reciente realizado por investigadores de la Universidad de Ciencia y Tecnología de Huazhong ha hecho revelaciones significativas sobre la infraestructura y las vulnerabilidades de este complejo sistema.
Resumen del proceso de evaluación de Grandes Modelos de Lenguaje en tareas de razonamiento, destacando las necesidades de mejorar procedimientos mediante análisis de subpensamientos. El estudio, realizado en los datasets AIME2024 y AIME2025, expone lo siguiente.
En un esfuerzo por mejorar la confianza en el ámbito médico mediante el uso de tecnologías avanzadas, un grupo de investigadores liderados por Ferhat Ozgur Catak ha desarrollado una plataforma digital pionera para la gestión del consentimiento de pacientes en el sector salud. El corazón de esta innovadora propuesta reside en el empleo de la blockchain de Ethereum y los contratos inteligentes para asegurar un registro seguro y auditable del consentimiento informado de los pacientes.
Detectores Avanzados Identifican Videos Falsos Mediante Transformadores de Visión
La era de la inteligencia artificial (IA) está revolucionando cómo abordamos el verificación de datos en entornos multilingües, y una investigación reciente liderada por expertos de la Universidad de Tecnología de Brno y el Kempelen Institute of Intelligent Technologies expone cómo los modelos de lenguaje de gran tamaño (LLM por sus siglas en inglés) pueden transformar esta tarea. La proliferación de información errónea, primordialmente en plataformas de redes sociales, presenta un desafío significativo para los verificadores de datos a nivel global, especialmente cuando dicha información adopta múltiples idiomas y contextos.
La generación de medios sintéticos a través de inteligencia artificial ha alcanzado nuevos niveles de realismo y se está utilizando cada vez más en la vida cotidiana. Esto ha planteado desafíos significativos, especialmente en términos de la detección de imágenes falsas esparcidas a través de redes sociales que, mediante sus procesos de compresión y modificación de la calidad de imagen, complican la tarea de identificación de estas falsificaciones.
Las iniciativas de interconectar Modelos de Lenguaje de Gran Tamaño (LLM) con representaciones estructuradas han abierto nuevos horizontes en la generación de recetas culinarias poco convencionales. Concretamente, el proyecto Dish C OVER demostró que, más allá de la mera aleatoriedad de palabras, la recombinación de ideas previamente existentes en forma estructurada puede llevar a platos innovadores que superan a los producidos por modelos como GPT-4o, en términos de diversidad y creatividad.
Recientemente, ha revolucionado el panorama de la síntesis de discurso el modelo AlignDiT, propuesto por un equipo de investigadores de KAIST y POSTECH. Este avanzado sistema de inteligencia artificial tiene como objetivo generar un habla que no solo sea audiblemente natural, sino también sincronizada con el movimiento labial en videos, conservando las características de la voz del hablante de referencia.
La investigación centrada en la evaluación de las capacidades de generación de código en grandes modelos de lenguaje (LLMs) ha revelado una serie de vulnerabilidades de seguridad cuando se utilizan para desarrollar aplicaciones web. Los detalles salieron a la luz luego de que se determinara que el 32,8% del código Python generado y el 24,5% del código JavaScript, cuando se genera automáticamente, contiene brechas de seguridad.
Los modelos de lenguaje de gran capacidad y la inteligencia artificial generativa continúan revolucionando la forma en que se maneja la información en Internet, aunque no sin preocupaciones significativas. Ha surgido un modelo estocástico que adapta la generación, indexación y diseminación de información, destacando los desafíos que estos sistemas ofrecen debido a su dependencia en técnicas de generación aumentada por recuperación en tiempo real.
**1. Tema principal:
El auge de las poblaciones urbanas ha generado un incremento en la demanda de sistemas de transporte eficientes en las ciudades principales. Un avance significativo en este ámbito es la incorporación de los vehículos autónomos conectados (CAV) y los sistemas inteligentes de transporte (ITS) para transformar la movilidad urbana, mejorando la seguridad, reduciendo la congestión y optimizando el uso de recursos. Un estudio reciente presenta un sistema de intercambio de autos autónomos empoderado por gemelos digitales, que fue validado a través de una demostración de prueba de concepto (PoC) en un entorno real de un campus universitario.
En un contexto donde la reticencia a los vacunas sigue siendo un problema global, especialmente respecto a la de virus del papiloma humano (VPH), un estudio reciente evaluó la efectividad de los chatbots basados en modelos de lenguaje (LLM) en la persuasión de los padres reticentes a vacunar a sus hijos. Este experimento se llevó a cabo en varios países, incluida Estados Unidos, Canadá y el Reino Unido, y giró en torno a dialogar brevemente con chatbots durante tres minutos, frente a recibir el mensaje estático de salud pública estándar.
Un nuevo método universal para la desintoxicación de grandes modelos lingüísticos (LLM), conocido como UniDetox, promete optimizar el procedimiento de desintoxicación sin necesidad de ajustes específicos por modelo. Epidémico es el problema de la toxicidad inherente en los LLMs, ocurrida por el uso de datos de entrenamiento a gran escala que a menudo contienen contenido socialmente dañino. Sin embargo, este descubrimiento plantea esperanza al abordar tal inconveniente con eficacia y eficiencia.
En un esfuerzo por mejorar la detección de cáncer de cuello uterino, un grupo de investigadores ha desarrollado un sistema innovador que combina microscopios biológicos de bajo costo con avanzados algoritmos de inteligencia artificial. Este método no solo optimiza el proceso de análisis de muestras de citología, sino que también reduce los errores humanos.
En un esfuerzo por abordar los desafíos de la detección temprana de enfermedades en cultivos, un grupo de investigadores ha desarrollado un sistema que combina Modelos de Lenguaje Grande Multimodal (LLMs) como el GPT-4o con Redes Neuronales Convolucionales (CNNs). La investigación muestra que esta técnica innovadora supera a modelos tradicionales en la clasificación de enfermedades de plantas, apoyada en un conjunto de datos sólido como PlantVillage.
La automatización de tareas de software puede ser un desafío, especialmente cuando se trata de interfaces de scripting que permiten ejecutar secuencias de comandos para personalizar y optimizar los flujos de trabajo de las aplicaciones. En un intento por superar las limitaciones de la generación de código en tiempo real y los riesgos asociados, se ha propuesto un marco de simulación offline para curar conjuntos de habilidades específicas de software, implementando el uso de Modelos de Lenguaje Grande (LLMs) combinados con guías de scripting disponibles públicamente.
Investigadores de la Universidad de Illinois han llevado a cabo un estudio para comprender cómo diferentes velocidades de presentación de texto influyen en las percepciones sobre herramientas de escritura asistidas por IA. Este análisis descubrió que la velocidad del texto afecta la percepción de confianza y calidad del contenido generado por inteligencia artificial.
Investigadores de Estados Unidos han desarrollado un marco de trabajo llamado CarbonCall, que busca reducir las emisiones de carbono y el consumo de energía al optimizar el uso de Modelos de Lenguaje Grandes (LLM) en dispositivos periféricos. Esta innovación se presenta como una solución a los retos actuales en el ámbito de la informática sostenible, al reducir la carga computacional y las demandas energéticas que, en ocasiones, son elevadas en entornos con recursos limitados y sujetos a variaciones de la intensidad del carbono de las fuentes de energía.
Título Principal: Reflexion: Innovación en Autoexploración Emocional con IA
En un estudio reciente de JetBrains Research, se indaga cómo los desarrolladores entienden y adoptan herramientas de desarrollo impulsadas por inteligencia artificial (IA). Según los hallazgos, la forma en que los desarrolladores conceptualizan la IA determina su aceptación tecnológica. El análisis cualitativo de 38 entrevistas junto a una encuesta cuantitativa a 102 participantes revelan dos modelos mentales principales: IA como herramienta inanimada y como compañero de trabajo humano.
El análisis de las interacciones de los usuarios de Reddit con ChatGPT se enfoca en el uso de modelos de lenguaje para apoyo en salud mental. Los usuarios aprecian la accesibilidad y la ausencia de juicio del chatbot, usándolo como un espacio seguro para compartir sus luchas emocionales. ChatGPT ofrece consejos prácticos y ayuda a preparar sesiones de terapia, además de permitir la simulación de interacciones terapéuticas en ausencia de un profesional.
Una reciente investigación ha revolucionado la manera en la que se diagnostican los pólipos colorrectales, clave en la detección temprana del cáncer colorrectal. Utilizando el Dynamic Contextual Attention Network (DCAN), un enfoque innovador que transforma las representaciones espaciales en percepciones contextuales adaptativas, se ha logrado mejorar significativamente la localización y el diagnóstico de pólipos durante las endoscopias.
Un equipo interdisciplinario de la Universidad de la República, en colaboración con la Administración Nacional de Educación Pública de Uruguay, ha desarrollado una innovadora plataforma educativa destinada a facilitar la enseñanza del inglés como lengua extranjera. Esta iniciativa responde a la necesidad urgente de programas de enseñanza de inglés en áreas rurales donde la falta de docentes especializados podría limitar el acceso al aprendizaje del idioma.
El reciente avance en el estudio de los grandes modelos de lenguaje (LLMs, por sus siglas en inglés) explora hasta qué punto estas tecnologías logran dominar la lógica formal, específicamente la lógica booleana. Este campo de estudio es relevante dado que la lógica booleana está en la base de otras lógicas también importantes, como la lógica de primer orden o la lógica modal. La reciente investigación aporta una manera de entrenar a los LLMs utilizando datos sintéticos, sustituyendo las demostraciones reales que son escasas en el mundo real.
Google sigue avanzando en la aplicación de modelos de lenguaje a gran escala en la ingeniería de software, específicamente en la edición de código. Una investigación reciente se centra en cómo los desarrolladores utilizan la herramienta de edición de código ‘Transform Code’, alimentada por un modelo de lenguaje de gran escala (LLM). Esta herramienta es parte de un entorno de desarrollo integrado (IDE) utilizado en Google, y permite a los desarrolladores modificar y extender el código mediante prompts en lenguaje natural.
La expansión global de la Inteligencia Artificial (AI) ha propiciado el surgimiento de cadenas de suministro dedicadas a este sector, integradas por un entramado complejo de actores, productos y servicios. Esta nueva estructura del desarrollo de AI refleja la creciente especialización y externalización dentro de la industria, permitiendo no solo una reducción de costos sino también una especialización más profunda entre los distintos participantes del sector.
La revolución de los vehículos autónomos está transformando el panorama de la industria automovilística. Estas innovadoras máquinas, que se desplazan gracias a sensores y software inteligente, tienen como reto principal las amenazas cibernéticas que pueden poner en riesgo la seguridad de pasajeros y usuarios de la vía. Dado su gran potencial, el reforzamiento de medidas de ciberseguridad resulta esencial para prevenir actividades maliciosas que no solo desafiarían la confianza del público, sino que podrían ocasionar graves accidentes.
En un esfuerzo por optimizar la planificación de misiones lunares y el uso de recursos in situ, un grupo de investigadores del Laboratorio de Física Aplicada de la Universidad Johns Hopkins se ha enfocado en el empleo de Modelos de Lenguaje Grande (LLM) para la extracción de datos estandarizados a partir de una vasta colección de publicaciones científicas. Al centrar sus esfuerzos en la obtención de información sobre la composición lunar, el equipo busca mejorar el acceso y utilización de datos críticos en la toma de decisiones de misión espacial.
Un reciente avance tecnológico está revolucionando la detección del asma en niños, utilizando inteligencia artificial desarrollada por Google. El modelo de Representaciones Acústicas de Salud (HeAR) ha sido entrenado en más de 300 millones de muestras de audio relacionadas con salud, incluyendo 100 millones de sonidos de tos. Este modelo ha sido aplicado al conjunto de datos SPRSound, la primera base pública que contiene sonidos respiratorios pediátricos abiertamente anotados.
Un nuevo enfoque en el ámbito de la inteligencia artificial busca revolucionar la manera en que se generan los repositorios de código a partir de contenido académico. La iniciativa, conocida como “Paper-to-Code” (P2C), se centra en convertir el contenido multimodal de los trabajos científicos en repositorios de código completos y ejecutables. Este avance tiene el potencial de transformar el proceso de generación de código mediante la automatización de tareas complejas que anteriormente requerían experiencia especializada en machine learning (ML).
El crecimiento exponencial de la literatura científica ha impulsado el desarrollo de técnicas automatizadas para la síntesis de evidencias, especialmente al integrar procesamiento de lenguaje natural y aprendizaje automático. Un reciente análisis sistemático, basado en 97 estudios, revela que existe un enfoque dominante en automatizar el procesamiento de datos y el modelado estadístico, mientras que sólo un 17% aborda etapas avanzadas como la evaluación de heterogeneidad y sesgos en la síntesis de evidencias. Esto pone de manifiesto un vacío crítico en la automatización de procesos completos de meta-análisis.
Investigadores han propuesto una arquitectura de Inteligencia General Artificial (AGI) personalizada para ser implementada en dispositivos con recursos limitados. Inspirados en principios de neurociencia, e ideada para permitir aprendizaje continuo, la nueva propuesta busca superar las limitaciones actuales de los modelos de aprendizaje profundo, los cuales dependen en gran medida de la expansión de los parámetros del modelo. Aunque esto mejora el rendimiento en tareas específicas, no permite un aprendizaje continuo y adaptable.
Identificando alternativas innovadoras para el manejo de LLMs
Investigadores de la Universidad de Sun Yat-sen en Shenzhen han revolucionado la identificación de drones en entornos urbanos con un enfoque sin imágenes usando LiDAR de fotones. Este método asequible y de bajo consumo energético ha superado barreras tecnológicas, logrando identificar drones hasta a 5 km de distancia con gran precisión.
En un mundo tecnológico donde la complejidad de los sistemas informáticos aumenta a pasos agigantados, surge la necesidad de que estos métodos puedan detectar y reparar fallos automáticamente. Inspirándose en los procesos de curación natural del cuerpo humano, investigadores han ideado una revolucionaria arquitectura de software denominada “autocuración impulsada por IA,”
En un esfuerzo por potenciar la creatividad científica mediante inteligencia artificial, el sistema S PARK emerge como una herramienta que promueve la generación de ideas científicas innovadoras. Este avance magistral en la intersección de la IA y la ciencia busca transformar el panorama de la investigación científica mediante la integración de modelos de lenguaje automático, sistemas de evaluación crítica y técnicas de recuperación de literatura.
Generative AI (GenAI) technologies hold immense potential within the financial services sector, yet they come with inherent risks that necessitate rigorous oversight. Recent academic and industry studies highlight the critical need for a domain-specific AI content risk taxonomy to adequately assess and govern these systems in practices such as trading, investment advice, and financial services communication.
En un reciente informe, un grupo de investigadores ha abordado la creciente capacidad de los modelos de lenguaje amplio (LLM) para exhibir cierto grado de “conciencia” artificial. Este término se aborda desde una perspectiva funcional, más que filosófica, donde se analiza la habilidad de estas inteligencias artificiales para representarse y razonar sobre su propia identidad, capacidades y estados informacionales.
La inteligencia artificial (IA) está revolucionando el sector educativo mediante el uso de agentes autónomos que mejoran modelados por lenguaje grandes (LLM) convencionales. Estos agentes, en contraste con los LLM tradicionales, son capaces de realizar tareas complejas con una mínima intervención humana, al utilizar herramientas y procesos de reflexión, planificación y colaboración multiagente.
Un revolucionario avance en la evaluación de la influencia académica, el Índice Ajustado de Autocitación (SCAI), promete transformar radicalmente el campo de financiamiento y reconocimiento del mundo investigador. Diseñado por Rahul Vishwakarma, este novedoso índice busca corregir las métricas de citaciones tradicionales afectadas por la práctica del autocitación, brindando así una visión más precisa y equitativa del verdadero impacto de las investigaciones.
La investigación realizada por un equipo del Departamento de Ciencia de la Computación de la Universidad de Tulane, liderado por Robert Becker y Aron Culotta, ha revelado patrones fascinantes en la diseminación histórica de ideas filosóficas. El estudio comprende 2,245 textos filosóficos desde el 550 a.C. hasta 1940 d.C., utilizando el procesamiento natural del lenguaje y el análisis de redes para mapear cerca de 294,970 referencias entre autores.
Un equipo de investigadores ha desarrollado un marco analítico llamado SODA, diseñado para mejorar la eficacia de la publicidad digital mediante el uso de Modelos de Lenguaje Grande (LLM) y AI explicable. Este sistema aborda la falta de transparencia en plataformas de publicidad como Meta Ads, donde los anunciantes, atrapados por los efectos de red, se ven obligados a confiar en intuiciones mientras pierden miles de millones de dólares en anuncios ineficaces.
Una de las barreras más desafiantes en la realización de ensayos clínicos es la dificultad de reclutar candidatos adecuados y suficientes. Aproximadamente el 80% de estos ensayos no logra completar el enrolamiento adecuado, afectando la investigación y desarrollo de nuevos tratamientos médicos. Ante esta situación, surge una solución prometedora: TrialGPT, una herramienta que utiliza modelos de lenguaje avanzado para mejorar el proceso de emparejamiento de pacientes con los ensayos compatibles.
En un descubrimiento revolucionario, los astrónomos han detectado una enorme nube de hidrógeno molecular llamada Eos, ubicada a 300 años luz del Sistema Solar, en los límites de la ‘Burbuja Local’. Este hallazgo es notable porque marca la primera vez que se identifica una nube molecular de tal magnitud a través de la emisión de luz ultravioleta lejana (FUV), una técnica innovadora que podría reescribir nuestra comprensión de la materia interestelar.
El reciente apagón que dejó a oscuras a gran parte de España, Portugal y el sur de Francia generó caos e incomodidad en la vida cotidiana de millones de personas. Durante el incidente, el atribulado lector podía encontrarse con semáforos inactivos, cajeros automáticos inservibles y una suspensión total del transporte público, sin mencionar que las comunicaciones telefónicas quedaron cortadas en plena era digital. Los comensales se veían forzados a cenar con el tenue resplandor de las velas como única iluminación bajo el cielo nocturno.
En el corazón de Utah, un organismo está unido por un sistema radicular extensivo, conocido como Pando, que abarca 40 hectáreas con 47,000 tallos de álamo temblón formando un solo ser vivo. Este gigante natural, que se estima pesa 6,000 toneladas métricas, es un verdadero testimonio de vida y resistencia. Recientemente, las ondas sonoras viajeron por su sistema de raíces, permitiendo una asombrosa nueva manera de “escuchar” a Pando.
Nuevas evidencias fósiles han revolucionado la concepción que teníamos del papel desempeñado por los sebecidos en los ecosistemas del Caribe. Esta familia de reptiles, que alguna vez fueron los depredadores más temidos de América del Sur, sorprendentemente perduraron en la región caribeña mucho después de haber desaparecido en el continente.
Un reciente estudio realizado por un equipo de especialistas del University of Glasgow ha revelado que caminar a un ritmo acelerado podría ser la clave para reducir el riesgo de sufrir problemas de ritmo cardíaco. La investigación destaca que quienes caminan a una velocidad promedio de entre 3 y 4 millas por hora tienen un 35% menos de posibilidades de desarrollar anomalías en el ritmo cardíaco, en comparación con aquellos que caminan a menos de 3 millas por hora.
En el vasto cosmos, un curioso fenómeno ha captado la atención de los astrónomos: una oscura grieta celeste está dando lugar a una fábrica de estrellas. Este fenómeno, denominado Circinus West, no es más que una nube oscura de material molecular tan denso que oculta el nacimiento de nuevas estrellas. Aunque desde nuestra perspectiva terrena parece un vacío en el espacio, dentro de esta nube se están formando estrellas a gran velocidad.
En un giro que ha desatado la crítica de la comunidad científica, la administración Trump ha decidido despedir a todos los científicos implicados en la más reciente evaluación climática nacional, un informe clave que prescribe cómo el cambio climático está afectando a Estados Unidos. Este análisis, que es una pieza fundamental para la formulación de normativas ambientales y la planificación de infraestructuras, ha sido visto tradicionalmente como la referencia de cómo el calentamiento global está remodelando el país.
Un nuevo dispositivo ha permitido dar un paso significativo hacia adelante en la proyección de displays 3-D que se pueden manipular físicamente, aportando un nivel de interacción que hasta ahora solo se veía en películas como Iron Man. Un equipo liderado por Elodie Bouzbib en la Universidad Pública de Navarra ha desarrollado un sistema que utiliza tiras elásticas en lugar de pantallas tradicionales para renderizar objetos tridimensionales. Este innovador enfoque permite a los usuarios sumergirse directamente en las visualizaciones y manipularlas con las manos sin la necesidad de un dispositivo de realidad virtual.
La comunidad científica ha dado un paso adelante hacia la generación de energía sostenible a través de métodos innovadores. Gracias a los últimos avances, se ha descubierto que es posible generar electricidad a partir de la lluvia, un recurso renovable y ampliamente disponible. En un experimento reciente, se logró mantener encendidas 12 bombillas LED utilizando únicamente la energía generada por gotas de agua que caen en tubos estrechos.