Categoría

AI generativa

Esta investigación examina cómo las herramientas de Model Context Protocol (MCP) amplían la superficie de ataque para los agentes autónomos, detallando vectores de explotación como el envenenamiento de herramientas, la inyección de orquestación y las redefiniciones junto con estrategias prácticas de defensa.

imagen de marcador de posición
Resumen de los marcos de trabajo de Agentic

Resumen de los marcos de trabajo de Agentic

Los sistemas agentes requieren que los equipos de seguridad equilibren la autonomía con la alineación, garantizando que los agentes de IA puedan actuar de forma independiente y al mismo tiempo seguir siendo coherentes con los objetivos y controlables.

Elastic hace progresar la seguridad de LLM con campos e integraciones estandarizados

Elastic hace progresar la seguridad de LLM con campos e integraciones estandarizados

Descubre los últimos avances de Elastic en seguridad de LLM, centrados en integraciones de campo estandarizadas y capacidades de detección mejoradas. Descubre cómo la adopción de estos estándares puede proteger tus sistemas.

Incorporación de la seguridad en flujos de trabajo de LLM: el enfoque proactivo de Elastic

Incorporación de la seguridad en flujos de trabajo de LLM: el enfoque proactivo de Elastic

Sumérgete en la exploración de Elastic sobre la incorporación de seguridad directamente en los modelos de lenguaje grandes (LLM). Descubre nuestras estrategias para detectar y mitigar varias de las principales vulnerabilidades de OWASP en aplicaciones de LLM, lo que garantiza aplicaciones impulsadas por IA más seguras y protegidas.

Acelerar el proceso de detección de Elastic con los LLM

Acelerar el proceso de detección de Elastic con los LLM

Obtén más información sobre cómo Elastic Security Labs se ha enfocado en acelerar nuestros flujos de trabajo de ingeniería de detección al aprovechar más capacidades de la IA generativa.

Uso de LLM y ESRE para encontrar sesiones de usuario similares

Uso de LLM y ESRE para encontrar sesiones de usuario similares

En nuestro artículo anterior, analizamos el uso del modelo de lenguaje grande (LLM) de GPT-4 para condensar las sesiones de usuario de Linux. En el contexto del mismo experimento, dedicamos un tiempo a examinar las sesiones que compartían similitudes. Posteriormente, estas sesiones similares pueden ayudar a los analistas a identificar actividades sospechosas relacionadas.

Uso de LLM para resumir sesiones de usuario

Uso de LLM para resumir sesiones de usuario

En esta publicación, hablaremos sobre las lecciones aprendidas y los puntos clave de nuestros experimentos con GPT-4 para resumir las sesiones de usuario.

Explorando el futuro de la seguridad con ChatGPT

Explorando el futuro de la seguridad con ChatGPT

Recientemente, OpenAI anunció API para que los ingenieros integren los modelos de ChatGPT y Whisper en sus aplicaciones y productos. Durante algún tiempo, los ingenieros podían usar las llamadas a la API REST para modelos más antiguos y, de lo contrario, usar la interfaz de ChatGPT a través de su sitio web.