Docsity
Docsity

Prepara tus exámenes
Prepara tus exámenes

Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity


Consigue puntos base para descargar
Consigue puntos base para descargar

Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium


Orientación Universidad
Orientación Universidad

implementación de wazuh, Exámenes selectividad de Tecnología

wazuh ...................trarea trarea tarea

Tipo: Exámenes selectividad

2021/2022

Subido el 01/07/2025

pishing-klar
pishing-klar 🇨🇱

1 documento

1 / 4

Toggle sidebar

Esta página no es visible en la vista previa

¡No te pierdas las partes importantes!

bg1
WAZUH + LLAMA 3
La inteligencia artificial(IA) hace que la búsqueda de amenazas en Wazuh
sea más eficiente y eficaz, ya que puede procesar grandes cantidades de
datos de seguridad a alta velocidad. Puede detectar patrones sutiles y
anomalías que los analistas humanos podrían pasar por alto. Al aprovechar
la IA en la búsqueda de amenazas en Wazuh, los equipos de seguridad
pueden ser más eficientes y centrar su experiencia donde más se necesita,
mientras la IA se encarga del resto.
Esta entrada de blog explora cómo la IA puede mejorar la detección de
amenazas de Wazuh mediante modelos de lenguaje extenso (LLM). Los LLM
son sistemas robustos de IA que comprenden, generan y manipulan el
lenguaje humano. Este sistema ayuda a identificar amenazas más
rápidamente, reducir los falsos positivos y mejorar la seguridad general.
Requisitos
Utilizamos la siguiente infraestructura para configurar Wazuh con IA para la
búsqueda de amenazas:
Componentes centrales de Wazuh 4.12.0 (servidor Wazuh, indexador
Wazuh, panel de control Wazuh) instalados mediante laguía de inicio
rápidoen un servidor Ubuntu 24.04. Este servidor también aloja
Ollama y requiere un mínimo de 16 GB de RAM y 4 CPU. El script
también se puede implementar en un servidor remoto; el método
para implementarlo se explica en una sección posterior.
Un endpoint de Ubuntu 24.04 con unagente Wazuh instaladoy
registrado en el servidor Wazuh. Este endpoint servirá como endpoint
de prueba para probar nuestra configuración.
Un endpoint de Windows 11 con unagente Wazuh instaladoy
registrado en el servidor Wazuh. Este endpoint servirá como endpoint
víctima para probar nuestra configuración.
Configuración
Configuramos la infraestructura necesaria para la búsqueda de amenazas
de IA mediante un LLM. Configuramos Ollama para ejecutar el modelo
Llama 3 en el servidor Wazuh.
pf3
pf4

Vista previa parcial del texto

¡Descarga implementación de wazuh y más Exámenes selectividad en PDF de Tecnología solo en Docsity!

WAZUH + LLAMA 3

La inteligencia artificial (IA) hace que la búsqueda de amenazas en Wazuh sea más eficiente y eficaz, ya que puede procesar grandes cantidades de datos de seguridad a alta velocidad. Puede detectar patrones sutiles y anomalías que los analistas humanos podrían pasar por alto. Al aprovechar la IA en la búsqueda de amenazas en Wazuh, los equipos de seguridad pueden ser más eficientes y centrar su experiencia donde más se necesita, mientras la IA se encarga del resto. Esta entrada de blog explora cómo la IA puede mejorar la detección de amenazas de Wazuh mediante modelos de lenguaje extenso (LLM). Los LLM son sistemas robustos de IA que comprenden, generan y manipulan el lenguaje humano. Este sistema ayuda a identificar amenazas más rápidamente, reducir los falsos positivos y mejorar la seguridad general. Requisitos Utilizamos la siguiente infraestructura para configurar Wazuh con IA para la búsqueda de amenazas:  Componentes centrales de Wazuh 4.12.0 (servidor Wazuh, indexador Wazuh, panel de control Wazuh) instalados mediante la guía de inicio rápido en un servidor Ubuntu 24.04. Este servidor también aloja Ollama y requiere un mínimo de 16 GB de RAM y 4 CPU. El script también se puede implementar en un servidor remoto; el método para implementarlo se explica en una sección posterior.  Un endpoint de Ubuntu 24.04 con un agente Wazuh instalado y registrado en el servidor Wazuh. Este endpoint servirá como endpoint de prueba para probar nuestra configuración.  Un endpoint de Windows 11 con un agente Wazuh instalado y registrado en el servidor Wazuh. Este endpoint servirá como endpoint víctima para probar nuestra configuración. Configuración Configuramos la infraestructura necesaria para la búsqueda de amenazas de IA mediante un LLM. Configuramos Ollama para ejecutar el modelo Llama 3 en el servidor Wazuh.

Ollama es una herramienta para ejecutar modelos de lenguaje de gran tamaño (LLM), como Llama 3, Mistral y Gemma, localmente en su equipo. Ofrece una interfaz sencilla y una API REST local para interactuar con estos modelos, lo que permite su uso sin conexión sin depender de servicios en la nube. Llama 3 ha sido elegido como el LLM preferido para esta entrada de blog. Llama 3 es un modelo de lenguaje grande de código abierto desarrollado por Meta. Está diseñado para ser altamente capaz, eficiente y competitivo con modelos líderes, como GPT-4. Llama 3 está disponible en diferentes tamaños, como 8B (8 mil millones de parámetros) y 70B (70 mil millones de parámetros). Este parámetro guía cómo el modelo procesa y genera lenguaje, haciéndolo adecuado para diversas aplicaciones, desde la investigación hasta la producción.