Noticias3D
Registrarme | Recuperar password
  • Inicio(current)
  • Noticias
    • Últimas noticias
    • MÁs leÍdas
    • MÁs comentadas
    • Envia una noticia
  • Articulos
    • Todos
    • Placas base
    • Tarjetas grÁficas
    • Almacenamiento
    • F.AlimentaciÓn
    • Cajas de ordenador
    • Audio y vÍdeo
    • Gaming
    • PortÁtiles
    • GuÍas y taller
    • Memoria
    • Monitores
  • Tags
  • Drivers
  • Foro
×

Google

QNAP Qsirch mediante RAG: IA aplicada a la generación de conocimiento a partir de nuestros datos

featured image
26 de septiembre, 2025 |
Manuel Arenas
Fabricante: QNAP
Función: Qsirch mediante RAG
Siguiente
Mostrando página 1 de 3

Introducción

Los NAS (Network Attached Storage, o almacenamiento unido a la red) se están convirtiendo casi en estaciones de trabajo conectadas. El repertorio de funcionalidades que ofrecen a los usuarios aumenta sin cesar, especialmente en las gamas de los fabricantes más concienciados con estar al día en cuanto a tendencias y tecnologías.

QNAP es uno de esos fabricantes, con mejoras constantes en su sistema operativo QNAP QTS, en todos aquellos aspectos relevantes para mejorar la experiencia de usuario de sus dispositivos de almacenamiento en red. Recientemente, hemos hablado de tecnologías y funcionalidades de QNAP relacionadas con la seguridad, como QNAP High Availability, QNAP Security Center o QNAP Airgap+, aunque ahora vamos a hablar de una funcionalidad más amable relacionada con la Inteligencia Artificial: las búsquedas potenciadas con LLMs y RAG (Retrieval Augmented Generation)

QNAP  y las búsquedas potenciadas con IA y RAG

Pie: QNAP ha integrado la tecnología RAG (Retrieval Augmented Generation) en sus NAS a través del motor de búsqueda Qsirch.

La Inteligencia Artificial Generativa se ha convertido en la tendencia de moda, todo sea dicho. Pero, más allá de debates sobre si la IA es inteligente o no, que no conducen a ningún lado, tenemos aplicaciones reales y tangibles de esta tecnología que mejoran notablemente la experiencia de uso de los sistemas de almacenamiento. Como RAG.

Para entender qué es RAG, pensemos que la IA generativa lo que permite es “vectorizar” el conocimiento existente en el corpus de conocimiento digitalizado en forma de documentos, libros electrónicos, manuales, foros de discusión, páginas web e incluso imágenes, vídeos o sonidos. Esta vectorización es un poco como la digitalización de, por ejemplo, la música. Pasamos de una entidad analógica a una digital como puede ser un archivo MP3 o una secuencia de bits en Internet (streaming).

QNAP  y las búsquedas potenciadas con IA y RAG

Pie: La vectorización del lenguaje es fundamental para implementar las tecnologías de los LLMs y de RAG. Fuente: Adrian Coyler en Medium.

Decimos vectorizar, porque las palabras (de imágenes y vídeos ya hablaremos en otros artículos) en los documentos se “trocean” en tokens, que pueden ser palabras o partes de las palabras u otros componentes del lenguaje. Cada token se asocia a un vector de decenas de miles de parámetros que codifican sus posibles significados diferentes dependientes del contexto. Por ejemplo, la palabra “hermana” puede referirse a parentesco o a una religiosa.

Cuando se usan los chatbots de IA, como ChatGPT o Gemini, al escribir el prompt, el siguiente paso consiste en identificar el contexto semántico. Esto se lleva a cabo a través de la tecnología de los transformers y del mecanismo de atención (Attention is All You Need) que, mediante operaciones matemáticas de álgebra lineal y normalización, identifica, dentro de los vectores de cada token, los parámetros que caracterizan el “significado” apropiado de los términos definidos en el prompt.

Después, estos vectores se usan para llevar a cabo la generación de las inferencias a partir del LLM (Large Language Model) que estemos usando. Estos LLMs son inmensas bases de datos vectoriales con miles de millones de parámetros calculados durante el entrenamiento de los modelos. De nuevo, mediante operaciones de álgebra lineal y normalización de funciones, entre otras matemáticas aplicadas, se van generando los tokens que conforman la inferencia, que serán convertidos a palabras.

Cómo funciona RAG

El conocimiento codificado en los LLMs, sin embargo, es un conocimiento caducado. No contiene las más recientes publicaciones de Internet, ni el conocimiento generado desde el entrenamiento. Ni contiene tampoco nuestro propio conocimiento, como pueden ser artículos, trabajos de la facultad, textos literarios, presentaciones de Power Point, hojas de Excel, etcétera.

Para que los chatbots de IA sean vigentes, tienen que tener acceso a este contenido y conocimiento reciente. Aquí es donde entra en juego RAG o Retrieval Augmented Generation. Básicamente, RAG lo que consigue es acceder a documentos, presentaciones, textos, artículos, páginas web o foros, entre otras fuentes y vectorizar esos contenidos adecuadamente para que formen parte de las inferencias.

Si usamos un chatbot para preguntar por los nuevos iPhone 17, por ejemplo, lo que hará será buscar en Internet fuentes relevantes relacionadas con estos dispositivos, vectorizará estos contenidos y, de acuerdo con el contexto de nuestro prompt, incluirá, como parte de un prompt intermedio, aquella información o conocimiento relevante para nuestra pregunta. Después, ese prompt se procesará a partir del LLM para generar la inferencia final. En cierto modo, RAG lo que hace es preparar una “chuleta” y le “dice” al LLM que incluya en la respuesta la información seleccionada de las fuentes elegidas. Es un método más complejo en la práctica, desde luego. Las matemáticas que intervienen en el proceso son complejas y potentes, pero efectivas.

QNAP  y las búsquedas potenciadas con IA y RAG

Pie: La tecnología RAG es esencial para el uso de la IA en búsquedas, ya sean de Internet o en nuestros propios documentos y contenidos. Fuente: Gradient Flow.

Así pues, tenemos en RAG, o generación aumentada por recuperación, una forma de usar los LLMs con información y conocimiento reciente. Además, RAG hace posible que los usuarios usen sus propios documentos, textos y otros contenidos para obtener información a partir de ellos. Es lo que hace NotebookLM de Google, donde tenemos que añadir nuestras fuentes a los cuadernos de trabajo, ya sean enlaces de Internet, vídeos de YouTube, documentos de texto, PDFs, etcétera, para después hacer preguntas sobre sus contenidos.

Pues bien, QNAP ha integrado la tecnología RAG en sus NAS a través de Qsirch, la aplicación de búsqueda de los NAS de QNAP. De este modo, podemos hacer preguntas complejas a través de su interfaz acerca de los documentos que tengamos almacenados en el NAS, ya sea de forma global o en carpetas elegidas en las que tengamos almacenados los documentos sobre los que nos interese profundizar de un modo contextual o semántico a partir de sus contenidos.

Es decir, RAG “se lee” los documentos y archivos, vectoriza sus contenidos y los habilita para que podamos interaccionar con ellos a través del uso del lenguaje natural mediante preguntas o peticiones similares a las que haríamos a una persona que se los hubiera “empollado”.

Página oficial del servicio: QNAP Búsquedas Mediante RAG.

Páginas:
Siguiente
Mostrando página 1 de 3

Tags:QNAP, Redes, Seguridad, Inteligencia Artificial

Ver comentarios (0)

Últimos articulos
  • Antec Vortex View 360 Review: refrigeración líquida tope de gama con pantalla rotatoria de 5"
  • ASUS TUF Gaming X870-Pro WiFi7 W Neo Review: overclock avanzado, USB4 y LAN 5 GbE
  • ASUS Vivobook S14 M3407G Review: portátil delgado y ligero mainstream con Ryzen AI 7 445
  • be quiet! Dark Perk Sym Review: ratón gaming inalámbrico ultraligero de 55 g con sensor PAW3950
  • MSI PRO MP275QPDG Review: monitor profesional con dock USB-C, webcam y Daisy Chain
  • Guía: qué PC montar para gaming sin arruinarse en 2026
  • Cómo descargar y usar en tu ordenador diferentes modelos open source de IA generativa
  • MSI Roamii BE Pro Mesh System Review: sistema mesh Wi-Fi 7 con ciberseguridad y funciones avanzadas
  • MSI MPG 271QR QD-OLED X50 Review: 500 Hz, panel QD-OLED Gen 4 e IA para gaming extremo
  • Procesadores del CES 2026: Intel Core Ultra 300, AMD Ryzen AI 400/Max+ y Snapdragon X2, en detalle
Top articulos
  • Guía: qué PC montar para gaming sin arruinarse en 2026
  • Procesadores del CES 2026: Intel Core Ultra 300, AMD Ryzen AI 400/Max+ y Snapdragon X2, en detalle
  • MSI PRO DP10 14M Review: Mini PC con procesador de sobremesa para productividad profesional
  • Cómo descargar y usar en tu ordenador diferentes modelos open source de IA generativa
  • TeamGroup NV5000 M.2 PCIe 4.0 SSD 1TB Review: económico y solvente
  • Antec P7 S Review: sobriedad, silencio y buen equipamiento de serie
  • Antec Flux M Review: máximo airflow a precio mínimo
  • MSI Modern MD272QXP Review: monitor ideal para productividad
  • Elgato Embrace Review: ergonomía avanzada y diseño elegante
  • Acer Predator Z57 Review: monitor MiniLED 57” 32:9 ideal para simulación de conducción
Compras recomendadas
  • AMD Ryzen 7 7800X3D 4.2 GHz/5 GHz
  • Procesador AMD Ryzen 7 9800X3D 4.7/5.2GHz
  • Tarjeta Gráfica Asus Radeon RX 9070 XT OC 16GB GDDR6 Edición Call of Duty
  • Tarjeta Gráfica Gigabyte GeForce RTX 5070 Ti EAGLE OC SFF 16GB
  • Placa Base ASUS TUF GAMING B650-PLUS WIFI
  • Monitor MSI MPG 272URX QD-OLED 26.5" QD-OLED UltraHD 4K 240Hz 0.03ms
  • Tarjeta Gráfica Palit GeForce RTX 5080 GamingPro 16GB
Noticias 3D
  • articulos
  • drivers
  • foro
  • tags
  • contacto
  • publicidad
© Copyright 2000 - 2026 | nFinite9000 S.L. | Todos los derechos reservados | Aviso legal