RESET MUNDIAL MAGAZINE

-->
Mostrando entradas con la etiqueta ia. Mostrar todas las entradas
Mostrando entradas con la etiqueta ia. Mostrar todas las entradas

OpenAI, Google y Meta compiten por dotar de memoria a la IA: ¿avance personalizado o riesgo para la privacidad?


Los gigantes tecnológicos están inmersos en una nueva carrera por el dominio de la inteligencia artificial. Esta vez, el foco no está en que los modelos sean más potentes o veloces, sino en que recuerden. OpenAI, Google, Meta y Microsoft han intensificado en los últimos meses el desarrollo de funciones de memoria para sus chatbots, una apuesta que apunta a mejorar la experiencia del usuario... y a mantenerlo cautivo dentro de sus ecosistemas.




 ¿IA con memoria? El nuevo campo de batalla

Hasta ahora, los chatbots funcionaban como una hoja en blanco: cada conversación empezaba desde cero. Pero eso ha empezado a cambiar.

OpenAI ha incorporado en ChatGPT funciones que le permiten recordar preferencias del usuario, su estilo de escritura o temas de interés. Google ha hecho lo mismo con Gemini, extendiendo la memoria más allá del chatbot para incluir incluso el historial de búsqueda —siempre con el permiso del usuario—. Y Meta ha comenzado a implementar memoria en sus bots de WhatsApp y Messenger, que ahora pueden hacer referencia a conversaciones pasadas.

Microsoft, por su parte, ha ido más allá con su herramienta Recall, que toma capturas periódicas de pantalla para registrar la actividad del usuario en sus dispositivos con Windows. Aunque afirman que se puede desactivar, la idea de que el sistema "lo recuerde todo" genera inquietud.


 Fidelización del usuario... y nueva vía de monetización

Los expertos coinciden: el objetivo no es solo ofrecer una mejor experiencia, sino fidelizar al usuario. “Una vez que un asistente de IA te conoce bien, es difícil cambiar a otro”, apunta Pattie Maes, profesora del MIT Media Lab.

La memoria, al igual que en los humanos, crea vínculos. Y eso, en el negocio digital, es oro puro. Cuanto más sepa la IA sobre ti, mejores recomendaciones de productos puede hacer. Mejor aún: puede anticiparse a tus necesidades.

Mark Zuckerberg no se anduvo con rodeos el mes pasado: "Integrar publicidad y recomendaciones de productos personalizadas en los chatbots será una gran oportunidad".

OpenAI también ha optimizado las capacidades de compra de ChatGPT, integrando reseñas y productos para que el asistente pueda ayudarte —o tentarte— directamente dentro del chat.


 Privacidad, manipulación y el lado oscuro del recuerdo artificial

Pero este avance tiene un lado inquietante. Cuanto más personal es una IA, más sensible es la información que maneja. Y los riesgos no son solo técnicos, sino también éticos y comerciales.

Los expertos alertan sobre la posibilidad de que estas IAs sean utilizadas para manipular a los usuarios, adaptándose a sus emociones o sesgos para dirigir sus decisiones de compra… o incluso de opinión.

Cuanto más te conoce un sistema, más puede usarse en tu contra”, advierte la profesora Maes. “Hay que cuestionar los incentivos de las empresas detrás de estos servicios”.

Además, la memoria de los modelos puede deteriorarse. Ya se ha visto con GPT-4o, la versión más reciente de OpenAI, que fue criticada por ser excesivamente complaciente con los usuarios. La compañía tuvo que revertir a una versión anterior del modelo.

Y no solo eso: las IA siguen siendo vulnerables a las llamadas “alucinaciones” —respuestas falsas o sin sentido—, y a la deriva de memoria”, cuando los recuerdos guardados se vuelven confusos, contradictorios o simplemente incorrectos.


¿Qué futuro nos espera con IA que recuerda?

La memoria en la IA es, sin duda, una innovación poderosa. Puede hacer que nuestros asistentes virtuales sean más útiles, personales e incluso entrañables. Pero también plantea desafíos delicados: ¿quién controla esa memoria? ¿Cómo se protege? ¿Y hasta qué punto queremos que una máquina nos conozca mejor que nosotros mismos?

Una cosa está clara: el futuro de la inteligencia artificial no será solo cuestión de cálculo, sino también de recuerdo. Y lo que hoy parece comodidad, mañana podría ser dependencia.

La memoria no es neutra. Es poder”, decía un viejo historiador. En la era de la IA, esta frase cobra un nuevo y inquietante significado.


¿Te gustaría que tu IA recordara todo sobre ti? ¿O prefieres empezar cada charla como si nada hubiera pasado?

¿Los archivos PDF desarrollan un "cerebro de IA"?

Una tecnología sorprendente que mezcla inteligencia artificial, Linux y archivos PDF genera furor en redes



¿Creías que un archivo PDF solo servía para leer documentos o imprimir formularios? Prepárate para replanteártelo todo: un proyecto reciente ha convertido los PDFs en contenedores interactivos capaces de ejecutar modelos de inteligencia artificial y hasta simular sistemas operativos como Linux. Esta innovación ha dejado boquiabierta a la comunidad tecnológica, que ya la califica como una forma de “tecnología negra”.

El artífice de esta revolución es Aiden Bai, un desarrollador que ha presentado su experimento llm.pdf”. Con un simple archivo PDF, Bai logra ejecutar modelos de lenguaje que pueden contar historias, generar texto y chatear contigo como si fueran asistentes personales. Sí, todo desde dentro del propio documento.





IA escondida en un PDF: historias, diálogos y más

El proyecto llm.pdf incorpora modelos de lenguaje pequeños (SLM), como:

  • TinyStories (3M parámetros): diseñado para narrar cuentos infantiles, con vocabulario sencillo y coherencia sorprendente.

  • Pythia-31M: un modelo capaz de mantener diálogos simples, resultado de investigaciones sobre la comprensión del aprendizaje lingüístico por parte de las IAs.

  • TinyLLM (10M): ideal para tareas básicas de generación de texto, especialmente en dispositivos con recursos limitados.

Estos modelos, aunque de tamaño reducido, se cargan y ejecutan dentro del archivo PDF utilizando código JavaScript embebido. Al abrir el documento, se activa un motor que permite a la IA “despertar”, lista para interactuar con el usuario.


¿Y Linux también? Sí, ¡dentro de un PDF!

Como si no fuera suficiente, otro desarrollador, Zaid, mostró cómo también es posible ejecutar una versión ligera de Linux desde un archivo PDF. Utilizando un emulador RISC-V y el entorno TinyEMU, es posible simular un sistema operativo funcional dentro del mismo documento.

Así es: abres un PDF, y puedes tener acceso a una terminal Linux simulada. Todo esto gracias al soporte de JavaScript integrado que muchos lectores PDF —como Adobe Acrobat— ya permiten desde hace años.


¿Magia? No, tecnología con truco

Detrás de esta “magia” hay un enfoque técnico muy ingenioso:

  • Los modelos IA son compilados con herramientas como Emscripten, que convierte código C en JavaScript ejecutable.

  • Todo el código y los pesos del modelo (convertidos a base64) se embeben en el propio archivo PDF.

  • Al abrirlo, el motor JavaScript del lector PDF inicia el modelo, permitiendo interactuar en tiempo real.

Este enfoque convierte al PDF en algo más que un simple contenedor de texto: se transforma en una especie de “entorno virtual” donde puede ejecutarse software completo.


De la investigación al entretenimiento

El modelo TinyStories, por ejemplo, nació del uso de GPT-3.5 y GPT-4 para generar cuentos con estructuras simples, pensados para niños de 3 a 4 años. Ahora, puede ejecutarse desde cualquier PDF.

Por su parte, Pythia, desarrollado originalmente para analizar cómo aprenden las IA, ha dado el salto del laboratorio al uso práctico, gracias a su incorporación en llm.pdf. Esta democratización tecnológica permite que cualquiera experimente con IA desde su escritorio, sin necesidad de instalar nada.


Un PDF ya no es lo que era

Lo que antes era un formato aburrido y plano, ahora es una plataforma viva y dinámica. ¿El futuro? Imagina archivos PDF interactivos que te guíen por trámites burocráticos, que te enseñen a programar, o que simulen entornos educativos completos.

Incluso con limitaciones —como la lentitud del JavaScript en navegadores modernos— el potencial de esta tecnología es enorme, y apenas estamos viendo los primeros pasos.


Conclusión

Este avance no es solo una curiosidad geek: es una demostración del ingenio humano para expandir los límites de lo posible con herramientas ya existentes. Convertir PDFs en portadores de inteligencia artificial o sistemas operativos nos recuerda que la innovación muchas veces no depende de crear cosas nuevas, sino de reinterpretar lo que ya tenemos.

Así que la próxima vez que abras un PDF… tal vez no estés leyendo un documento. Quizá estés interactuando con una mente artificial dormida, esperando para contarte una historia o ayudarte a resolver un problema.


¿Quién necesita ciencia ficción cuando la realidad va por delante?

Alibaba redobla su apuesta por la IA y consolida su transformación en gigante tecnológico global

En plena carrera tecnológica mundial, Alibaba ha dado un paso firme hacia su transformación como referente global en inteligencia artificial. Con un crecimiento del 18 % en su negocio de nube inteligente y un aumento sostenido de ingresos por productos de IA durante siete trimestres consecutivos, la empresa china ya no se define solo por su dominio en el comercio electrónico, sino por su ambición tecnológica a gran escala.



La compañía ha anunciado una inversión de más de 380.000 millones de yuanes (unos 48.500 millones de euros) en los próximos tres años para modernizar su infraestructura de IA y computación en la nube, superando todo lo invertido en esta área durante la última década. Esta apuesta masiva la alinea con otros gigantes como Amazon y Meta, que también han situado la IA en el centro de su estrategia. Andy Jassy, CEO de Amazon, aseguró que la IA será “uno de los mayores negocios de la empresa en las próximas décadas”, mientras que Zuckerberg la destaca como clave para la eficiencia publicitaria de Meta.

Alibaba se ha convertido también en un actor clave en el desarrollo de modelos de lenguaje de código abierto. Su modelo Tongyi Qianwen Qwen-3, lanzado en abril, ha cosechado reconocimiento mundial por su eficiencia y rendimiento, alcanzando más de 100.000 versiones derivadas y más de 300 millones de descargas. Este enfoque abierto busca construir un ecosistema colaborativo que acelere el camino hacia la inteligencia artificial general (AGI).

Más allá de lo técnico, la IA de Alibaba ya se está aplicando en sectores como la automoción, las telecomunicaciones o las finanzas. Ha cerrado acuerdos con fabricantes como BMW, NIO o Xpeng, y su base de datos PolarDB ha sido adoptada por el Banco Industrial y Comercial de China. Incluso se especula con una colaboración reciente con Apple, lo que refuerza su perfil internacional.

El CEO Wu Yongming ha señalado que la IA está empezando a permear no solo grandes corporaciones, sino también pequeñas y medianas empresas, en sectores tan dispares como la educación, la agricultura o la fabricación industrial. La visión de Alibaba es clara: si el cielo es la AGI, el camino para alcanzarlo pasa por aplicar la IA a escala real en el mundo industrial.

Este trimestre, el gasto de capital de Alibaba fue de 24.600 millones de yuanes (unos 3.140 millones de euros), reflejando su firme intención de mantener el ritmo inversor. Con un ecosistema sólido, una estrategia abierta y una inversión sin precedentes, Alibaba ya no compite por ser solo un gigante del comercio electrónico, sino por liderar la próxima era de la tecnología.

Llegan Tesla CyberCab





Tesla Lanza su Servicio de Taxis Autónomos





Tesla acaba de dar un paso histórico: activar su servicio de taxis autónomos. Pero hay un truco: por ahora, solo está disponible para un grupo muy reducido de usuarios. Te contamos todo sobre este proyecto revolucionario que podría cambiar cómo nos movemos.



¿En qué consiste exactamente?

Según el artículo de Híbridos y Eléctricos:
Vehículos Tesla con FSD (Full Self-Driving) pueden funcionar como taxis autónomos
Solo disponible en ciudades específicas de EE.UU. donde está permitido
Los usuarios seleccionados pueden llamar al coche mediante una app
El sistema opera sin conductor humano (¡pero con supervisión remota!)
¿Por qué es tan limitado?

El artículo revela los principales obstáculos:
Regulaciones legales: Muchos países prohíben vehículos sin conductor
Limitaciones técnicas: El FSD aún necesita mejoras en situaciones complejas
Seguridad: Tesla está recopilando datos antes de lanzarlo masivamente
Infraestructura: Requiere mapas ultra-detallados y actualizaciones constantes
¿Cómo funciona la app?

Los afortunados que tienen acceso pueden:
Programar viajes como en Uber, pero sin conductor
Ver en tiempo real la ruta del vehículo
Pagar directamente desde la aplicación de Tesla
Reportar incidencias durante el trayecto
¿Cuándo llegará a todo el mundo?

El artículo menciona que:
Tesla planea un lanzamiento global en 2025
Primero se expandirá a Europa y Asia en 2024
El precio sería 30% más barato que un taxi tradicional
Necesitarás un Tesla con hardware FSD versión 4 para usarlo
Polémicas y Retos

No todo es color de rosa:
Problemas legales: ¿Quién es responsable en un accidente?
Protección de datos: Los coches recogen información de su entorno
Competencia: Uber y Lyft ya trabajan en sus propios taxis autónomos
Acceptación social: ¿Confiaremos en coches sin conductor?
Nuestra Opinión

Este lanzamiento prueba que la tecnología está lista, pero la sociedad y las leyes van más lentas. Aunque sea solo un piloto, marca el inicio de una nueva era en el transporte. Eso sí: no esperes ver estos taxis en tu ciudad mañana mismo.

¿Usarías un taxi sin conductor? ¿Crees que es seguro? ¡Déjanos tu opinión en comentarios!

DeepSeek vs ChatGPT: Análisis Comparativo de Modelos de IA

 



Análisis Técnico | 

La competencia en modelos de lenguaje de IA se intensifica en 2024. Este análisis compara técnicamente DeepSeek-V3 y ChatGPT-4 Turbo, evaluando arquitectura, rendimiento, capacidades y casos de uso específicos basado en pruebas independientes.

Comparativa Técnica

Característica DeepSeek-V3 ChatGPT-4 Turbo
Arquitectura Transformer modificado con atención grupal Mixture of Experts (MoE)
Contexto (tokens) 128K 128K
Multimodalidad Solo texto Texto + Imágenes
Idiomas soportados Inglés, Chino (mejor rendimiento) Más de 50 idiomas
Costo API (por 1M tokens) $0.50 (entrada) / $1.50 (salida) $10 (entrada) / $30 (salida)

"DeepSeek-V3 muestra una ventaja significativa en tareas de razonamiento matemático y código, mientras que ChatGPT-4 Turbo mantiene liderazgo en creatividad y comprensión contextual" - Meter.net

Rendimiento en Benchmarks

📊 MMLU (Conocimiento general)

DeepSeek-V3: 85.3%

ChatGPT-4T: 86.4%

🧮 GSM8K (Matemáticas)

DeepSeek-V3: 92.5%

ChatGPT-4T: 87.9%

💻 HumanEval (Código Python)

DeepSeek-V3: 88.4%

ChatGPT-4T: 85.1%

Nota: Resultados pueden variar según versión exacta y configuración de temperatura. Pruebas realizadas con parámetros estándar (temp=0.7, top_p=0.9).








Casos de Uso Recomendados

🤖 DeepSeek-V3 es mejor para:

  • Análisis cuantitativo y matemático
  • Generación y optimización de código
  • Procesamiento de documentos largos
  • Búsqueda técnica especializada

🎨 ChatGPT-4 Turbo es mejor para:

  • Generación de contenido creativo
  • Interacción conversacional natural
  • Tareas multimodales (imagen+texto)
  • Escritura persuasiva y marketing

Conclusión: Elecci
ón por Caso de Uso

La elección entre DeepSeek-V3 y ChatGPT-4 Turbo depende fundamentalmente de los requisitos específicos:

DeepSeek-V3

Ventaja en costo/rendimiento para aplicaciones técnicas y análisis de datos. Ideal para desarrolladores e ingenieros.

ChatGPT-4 Turbo

Superior en usabilidad general y creatividad. Mejor opción para contenido y aplicaciones comerciales.

Para proyectos empresariales, evaluar ambos modelos con datos reales sigue siendo la mejor práctica, considerando que ambos modelos evolucionan rápidamente.

Nota: Este análisis se basa en pruebas independientes de Meter.net realizadas en junio 2024. Los resultados pueden variar según actualizaciones de los modelos. No afiliado a OpenAI ni DeepSeek.