TechBriefly ES
  • Tech
  • Business
  • Geek
  • How to
  • about
    • About Tech Briefly
    • Terms and Conditions
    • Privacy Policy
    • Contact Us
No Result
View All Result
TechBriefly ES
No Result
View All Result
Home Tech
5 formas de evitar fugas de datos al usar LLM para la inteligencia de decisiones

5 formas de evitar fugas de datos al usar LLM para la inteligencia de decisiones

byTB Editor
26/05/2025
in Tech
Reading Time: 5 mins read
Share on FacebookShare on Twitter

El análisis de datos comerciales puede ser extremadamente útil para los tomadores de decisiones, y a medida que la integración de la IA en el lugar de trabajo se vuelve más común, muchos equipos están viendo valor al pedir ayuda a los LLM para la destilación de ideas procesables de conjuntos de datos patentados. Si bien se debe alentar esta práctica, debe manejarse cuidadosamente para preservar la seguridad y la privacidad de los datos.

Según el Informe de Seguridad y Gobierno de Immuta AI, el 80% de los expertos en datos están de acuerdo en que la IA está haciendo que la seguridad de los datos sea más desafiante. Además, el 88% de los profesionales de datos dicen que los empleados de sus organizaciones están utilizando IA, pero solo el 50% dice que la estrategia de seguridad de datos de su organización se mantiene al día con la tasa de evolución de la IA.

El principal problema es que las personas a menudo envían datos a LLM como parte de sus flujos de trabajo continuos, sin tener en cuenta la seguridad. Muchas organizaciones incluso carecen de monitoreo o visibilidad básica de lo que se está utilizando AI, en un fenómeno conocido como “AI de Shadow”.

La principal preocupación con respecto a la IA para el 56% de los profesionales de los datos es el riesgo de exposición a los datos confidenciales a través de un mensaje de IA. Deben existir dos elementos para que suceda una fuga rápida: entrada del usuario (datos confidenciales cargados por los empleados) y la salida del modelo (cuando el LLM genera o revela información confidencial a otra persona, según las interacciones previas o los datos de capacitación).

Estas fugas son más comunes de lo que se puede suponer, como lo demuestra el incidente de Deepseek desde enero de 2025, por lo que millones de líneas de registros de chat, claves API y otra información confidencial se expusieron, afectando a muchas organizaciones. Un incidente similar ocurrió con ChatGPT anteriormente en su desarrollo.

  Error de dinero en Warzone 2.0 DMZ: ¿cómo explotarlo?

Aquí hay cinco formas en que las organizaciones pueden prevenir fugas de datos al usar LLM.

1. Evite dar acceso directo a la IA a los datos

Los LLM nunca deben conectarse directamente a bases de datos de producción o sistemas confidenciales. Esto lo protegerá de situaciones como la fuga de Deepseek. Incluso si hay una fuga, no se pueden expusir datos confidenciales si la IA nunca ha obtenido acceso a los datos sin procesar. Una excelente manera de abordar esto es construir una capa que oculte los datos antes de que las consultas pasen a la LLM.

Pyramid Analytics es una solución de inteligencia de decisión que separa la capa de IA de los datos reales sin comprometer la calidad de las salidas. La forma en que funciona es que, cuando un usuario le pregunta a Pyramid’s AI Chatbot para BI una pregunta, el motor envía una versión de alto nivel de la pregunta al modelo AI externo de la elección del usuario, junto con una descripción de los datos en cuestión.

Pyramid luego ejecuta la consulta dentro de su propio entorno y devuelve los resultados en forma de paneles, gráficos o informes interactivos. El LLM nunca interactúa directamente con los datos de la organización, sin embargo, aún obtiene los beneficios completos de la visión de IA.

2. Implementar controles de acceso fuertes

El acceso a LLM nunca debe ser un libre para todos, especialmente en organizaciones más grandes. Debe haber un conjunto claro de políticas que definan quién puede usar LLM, en los que contextos y en qué condiciones. El acceso debe otorgarse en función de los roles de los empleados, implementados con restricciones apropiadas para el acceso de datos y modelo.

Los controles de acceso basados ​​en roles (RBAC) admiten directamente la aplicación del principio del menor privilegio, un componente esencial de un programa de seguridad moderno. Este principio asegura que los usuarios, modelos y herramientas conectadas solo tengan el acceso mínimo y las capacidades necesarias para realizar sus tareas.

  Los DM de Instagram no funcionan 2022: ¿Cómo corregir el error de DM de Instagram?

Las organizaciones maduras de IA pueden incluso usar un servidor MCP (protocolo de contexto del modelo), que permite a los equipos controlar cómo los LLM interactúan con los recursos externos al traducir las consultas de IA en acciones como llamadas API o búsquedas de bases de datos. Debido a que los servidores MCP interactúan regularmente con sistemas y datos confidenciales, deben configurarse con cero principios de confianza. Esto significa validar todas las solicitudes y registrar toda la actividad.

3. Repensar ingeniería rápida

Las indicaciones son cómo cada usuario puede interactuar con un LLM. Si no está diseñado con la seguridad en mente, las indicaciones se convierten en una seria vulnerabilidad. Los sistemas de IA deben poder diferenciar un aviso legítimo de uno dañino. Hay dos pasos para lograr eso.

El primer paso es implementar reglas de validación para todas las indicaciones entrantes, que verifican los patrones sospechosos, incluidos los comandos integrados (los tipos de hackers podrían usar en inyecciones SQL, por ejemplo) o intenta anular las instrucciones del sistema. La validación de entrada y la desinfección son una práctica estándar en seguridad web, y ahora deben aplicarse a los sistemas de IA de la misma manera.

Para aún más protección, las organizaciones pueden implementar una herramienta como LLM Guard, cuyas pruebas dedicadas del escáner de inyección analizan en tiempo real y pueden atrapar intentos de manipulación avanzados que los filtros basados ​​en reglas podrían perderse.

4. Registre y monitoree la salida y el uso de la IA

Los LLM deben tratarse como cualquier otra tecnología en el negocio. Muchas organizaciones monitorean las computadoras portátiles y el uso de aplicaciones, y los modelos de IA necesitan tanta supervisión.

Rastree lo que se pregunta, qué respuestas se están generando y quién está interactuando con el modelo. Esto planteará cualquier uso inapropiado o violación de políticas, pero también cualquier problema con el modelo que pueda conducir a la fuga de datos.

  ¿La conexión USB no funciona? Aquí están tus correcciones

El objetivo con estas medidas no es la vigilancia, sino para garantizar que el LLM funcione y se use de forma segura, ética y según lo previsto. Después de todo, es un sistema comercial que toca datos confidenciales, por lo que debe tratarse como uno.

5. capacitar a los empleados en riesgos LLM

Incluso con los controles de seguridad más restrictivos, los empleados aún pueden representar un riesgo. Pueden compartir datos demasiado sensibles con el modelo, confiar en herramientas de IA no aprobadas o tomar todo lo que el LLM genera como hecho.

Para abordar este problema, las plataformas de capacitación de concientización como Ninjio ahora ofrecen módulos específicos de IA que capacitan y educan a los empleados sobre varias mejores prácticas y riesgos asociados con el uso de LLM. Los empleados aprenderán a evitar compartir información confidencial o usar herramientas de IA no vettadas, y evaluar los resultados generados por IA antes de actuar en consecuencia.

Ya sea a través de un proveedor externo o una iniciativa interna, la capacitación de seguridad en torno a la IA es imprescindible para cada organización que planea implementar LLM de una manera significativa.

Pensamientos finales

Los LLM son una tecnología poderosa pero relativamente inmadura. A pesar de los esfuerzos para estandarizar las prácticas de seguridad en torno a su uso y desarrollo, todavía hay mucho riesgo para las organizaciones, lo que puede dar lugar a fugas de datos.

Por esa razón, la seguridad debe integrarse en cada capa de una implementación de LLM. Las medidas discutidas en este artículo proporcionan una base sólida para integrar LLM de manera segura y responsable.


Crédito de imagen destacado

Source: 5 formas de evitar fugas de datos al usar LLM para la inteligencia de decisiones

Related Posts

Galaxy Unpacked 2026: S26 Ultra llega justo antes del MWC

Galaxy Unpacked 2026: S26 Ultra llega justo antes del MWC

Los nuevos controles parentales de WhatsApp bloquearán a los extraños

Los nuevos controles parentales de WhatsApp bloquearán a los extraños

Xiaomi lanzará un teléfono inteligente totalmente de desarrollo propio en 2026

Xiaomi lanzará un teléfono inteligente totalmente de desarrollo propio en 2026

Meta purga 550.000 cuentas australianas para cumplir con la prohibición de menores de 16 años

Meta purga 550.000 cuentas australianas para cumplir con la prohibición de menores de 16 años

Galaxy Unpacked 2026: S26 Ultra llega justo antes del MWC
Tech

Galaxy Unpacked 2026: S26 Ultra llega justo antes del MWC

Los nuevos controles parentales de WhatsApp bloquearán a los extraños
Tech

Los nuevos controles parentales de WhatsApp bloquearán a los extraños

Xiaomi lanzará un teléfono inteligente totalmente de desarrollo propio en 2026
Tech

Xiaomi lanzará un teléfono inteligente totalmente de desarrollo propio en 2026

Meta purga 550.000 cuentas australianas para cumplir con la prohibición de menores de 16 años
Tech

Meta purga 550.000 cuentas australianas para cumplir con la prohibición de menores de 16 años

X para abrir un nuevo algoritmo de recomendación en 7 días
Tech

X para abrir un nuevo algoritmo de recomendación en 7 días

TechBriefly ES

© 2021 TechBriefly is a Linkmedya brand.

  • About
  • About Tech Briefly
  • Blog
  • Contact
  • Contact Us
  • Cover Page
  • Privacy Policy
  • TechBriefly
  • Terms and Conditions

Follow Us

No Result
View All Result
  • Tech
  • Business
  • Geek
  • How to
  • about
    • About Tech Briefly
    • Terms and Conditions
    • Privacy Policy
    • Contact Us

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy and Cookie Policy.