La IA generativa ha avanzado enormemente y se está utilizando cada vez más en Salesforce para mejorar la personalización y eficiencia de los procesos. Sin embargo, el uso de estas tecnologías genera preocupaciones sobre la seguridad y privacidad de los datos de los usuarios. Para abordar estas preocupaciones, Salesforce ha desarrollado Einstein Trust Layer, una solución que asegura que los datos se manejen de manera responsable y segura, creando un entorno de confianza para los usuarios al aprovechar las capacidades de la IA generativa.
¿Qué es Einstein Trust Layer?
Einstein Trust Layer es una arquitectura de seguridad avanzada integrada directamente en Salesforce que tiene como objetivo proteger la privacidad de los datos de los usuarios y garantizar un uso ético y responsable de la IA generativa. Esta solución implementa funciones clave como el enmascaramiento de datos, la retención cero de datos y la detección de toxicidad, permitiendo que las organizaciones aprovechen el poder de la inteligencia artificial sin poner en riesgo la información confidencial de sus clientes o empleados.
Para configurar Einstein Trust Layer en Salesforce, es necesario habilitar la opción “Einstein Generative AI” y configurar previamente Data Cloud en el entorno de Salesforce. Data Cloud garantiza que Einstein Trust Layer funcione de manera efectiva y proteja los datos de los usuarios, gestionando la seguridad de la información en todo el proceso.
¿Cómo funciona Einstein Trust Layer?
Einstein Trust Layer garantiza que el uso de IA generativa en Salesforce se realice de manera segura, responsable y respetuosa con la privacidad. Para lograr esto, cada vez que se solicita una respuesta a un modelo de lenguaje extenso (LLM), se sigue un proceso controlado que asegura que la información sensible no quede expuesta. Estas son las funciones clave de Einstein Trust Layer que permiten procesar solicitudes de IA sin exponer información sensible:
- Grounding Dinámico (Dynamic Grounding): Permite extraer datos relevantes directamente de los registros de Salesforce de manera segura, manteniendo la confidencialidad de la información. El Grounding enriquece los prompts con contexto y datos adicionales, los cuales se pueden incluir mediante Merge Fields (campos de registros, Apex, Data Cloud DMOs y Related Lists) dentro del Prompt Builder de Salesforce.
- Enmascaramiento de Datos (Data Masking): Antes de enviar la solicitud a un modelo de lenguaje extenso (LLM), Einstein Trust Layer reemplaza la información sensible con marcadores de posición (placeholders). Esto previene la exposición de datos confidenciales durante el proceso de generación de respuestas por parte de la IA.
- Defensa de Prompt (Prompt Defense): Esta función reduce la probabilidad de que el LLM genere respuestas no deseadas o dañinas. Prompt Builder utiliza políticas de sistema, que son instrucciones diseñadas para guiar el comportamiento de la IA y generar respuestas confiables y seguras. Estas instrucciones ayudan a proteger contra ataques de jailbreaking e inyección de mensajes.
- Cero Retención de Datos (Zero Data Retention): Garantiza que los datos enviados a un LLM no se almacenen ni se utilicen para fines distintos a la generación de la respuesta solicitada. Esto elimina el riesgo de que los datos sean utilizados para entrenamiento de la IA o mejoras de producto, protegiendo la confidencialidad de la información.
- Detección de Toxicidad (Toxicity Detection): Analiza las respuestas generadas por la IA en busca de contenido inapropiado o dañino, como lenguaje ofensivo o discriminatorio. Asigna una puntuación de toxicidad que indica la probabilidad de que la respuesta contenga este tipo de contenido. Las puntuaciones y categorías de toxicidad se almacenan en Data Cloud para su análisis posterior.
- Desenmascaramiento de Datos (Data Demasking): Después de que el LLM genera una respuesta, Einstein Trust Layer realiza el desenmascaramiento de los datos. En este proceso, reemplaza los marcadores de posición con la información real almacenada en Salesforce. De esta manera, asegura que las respuestas generadas por la IA sean precisas y contextualizadas, sin comprometer la seguridad de la información confidencial.
Estas funciones combinadas permiten que Einstein Trust Layer proteja los datos sensibles en cada etapa del proceso, asegurando que la IA generativa se utilice de manera segura y sin poner en riesgo la privacidad de los usuarios.
¿Qué es el Audit Trail de Einstein Trust Layer?
El Audit Trail de Einstein Trust Layer es una herramienta que permite rastrear todas las actividades y acciones realizadas por la IA, incluyendo el enmascaramiento de datos, la detección de toxicidad y otras operaciones relacionadas con los datos de los usuarios. En otras palabras, proporciona un historial completo de cómo la IA generativa procesó la información, garantizando la privacidad y la seguridad de los datos dentro de Salesforce.
Para acceder al Audit Trail, es necesario configurar Data Cloud en el entorno de Salesforce, ya que es la ubicación designada para recopilar y almacenar los datos de auditoría. Una vez configurado, se debe habilitar la opción “Collect and Store Einstein Generative AI Audit Data” en la sección “Einstein Feedback” dentro del Setup de Salesforce.
Al habilitar esta función, se puede rastrear información como el texto original enviado como solicitud al LLM, el texto enmascarado enviado al LLM y la respuesta enmascarada de vuelta, proporcionando una auditoría completa de cada proceso generado por la IA.
Más Información
- The Einstein Trust Layer: How it Works
- The Einstein Trust Layer
- Large Language Model Data Masking in the Einstein Trust Layer
- Einstein Trust Layer Explained