IA responsable

En esta guía, se describen las funciones de IA responsable en Vertex AI, las posibles limitaciones del modelo y las prácticas recomendadas para desarrollar aplicaciones de IA generativa de forma segura y responsable. En esta página, se abordan los siguientes temas:

  • Filtros y atributos de seguridad: Obtén información sobre el filtro de contenido integrado y la puntuación de atributos de seguridad disponibles en las APIs de IA generativa de Vertex AI.
  • Limitaciones del modelo: Comprende las posibles limitaciones de los modelos generativos, como las alucinaciones, el sesgo y la experiencia limitada en el dominio.
  • Prácticas recomendadas: Sigue los pasos recomendados para evaluar los riesgos de seguridad, realizar pruebas de seguridad y supervisar tu aplicación.
  • Denuncia abuso: Obtén información para denunciar sospechas de abuso o contenido inapropiado generado.

Cuando integres las APIs generativas en tu caso de uso y contexto, es posible que debas tener en cuenta factores adicionales de IA responsable y limitaciones. Para promover la equidad, la interpretabilidad, la privacidad y la seguridad, sigue las prácticas recomendadas.

Atributos y filtros de seguridad

Para obtener información sobre cómo usar los filtros de seguridad y los atributos de una API, consulta la API de Gemini en Vertex AI.

Limitaciones del modelo

Los modelos de IA generativa tienen limitaciones que puedes encontrar, incluidas las siguientes:

  • Casos extremos: Situaciones inusuales, excepcionales o excepcionales que no están bien representadas en los datos de entrenamiento. Estos casos pueden generar limitaciones de rendimiento, como un exceso de confianza del modelo, una interpretación errónea del contexto o la generación de resultados inapropiados.

  • Alucinaciones, fundamentación y factibilidad de modelos: Los modelos de IA generativa pueden producir resultados que suenan plausibles, pero que son fácticamente incorrectos porque pueden carecer de conocimiento del mundo real o de una comprensión precisa de las propiedades físicas. Para reducir las alucinaciones, puedes fundamentar los modelos con tus datos específicos. Para obtener más información, consulta Descripción general de la fundamentación.

  • Calidad y ajuste de los datos: La calidad, la precisión y el sesgo de la instrucción o los datos de entrada influyen significativamente en el rendimiento del modelo. Las entradas inexactas o sesgadas pueden generar un rendimiento deficiente o resultados falsos.

  • Amplificación de sesgo: Los modelos de IA generativa pueden amplificar los sesgos existentes en sus datos de entrenamiento, lo que genera resultados que refuerzan los prejuicios sociales y el tratamiento desigual de ciertos grupos.

  • Calidad del lenguaje: El rendimiento del modelo puede ser incoherente en diferentes idiomas, dialectos y variedades de idiomas. Es posible que los idiomas o dialectos que están subrepresentados en los datos de entrenamiento tengan un rendimiento más bajo. Si bien los modelos tienen capacidades multilingües impresionantes, la mayoría de las comparativas, incluidas todas las evaluaciones de equidad, están en inglés. Para obtener más información, consulta el blog de Google Research.

  • Comparativas y subgrupos de equidad: Los análisis de equidad de Google Research no abarcan todos los riesgos potenciales. Por ejemplo, los análisis se enfocan en los sesgos relacionados con el género, la raza, la etnia y la religión, pero solo usan datos en inglés y resultados del modelo. Para obtener más información, consulta el blog de Google Research.

  • Experiencia limitada en el dominio: Los modelos pueden carecer del conocimiento profundo necesario para temas altamente especializados o técnicos, lo que puede generar información superficial o incorrecta. Para casos de uso especializados, considera ajustar los modelos a los datos específicos del dominio y agregar una supervisión humana significativa, en especial en contextos que puedan afectar los derechos individuales.

  • Longitud y estructura de las entradas y salidas: Los modelos tienen un límite máximo de tokens (fragmentos de palabras) para las entradas y salidas. Si la entrada o salida excede este límite, el modelo no aplica clasificadores de seguridad, lo que puede provocar un rendimiento deficiente del modelo. Además, las estructuras de datos de entrada inusuales o complejas pueden afectar negativamente el rendimiento.

Para usar esta tecnología de forma segura y responsable, considera los riesgos específicos de tu caso de uso, además de las protecciones técnicas integradas.

Te recomendamos que sigas estos pasos:

  1. Evalúa los riesgos de seguridad de tu aplicación.
  2. Realiza pruebas de seguridad adecuadas para tu caso de uso.
  3. Configura filtros de seguridad si es necesario.
  4. Solicita comentarios de los usuarios y supervisa el contenido.

Denunciar abuso

Para denunciar un posible abuso del servicio o cualquier resultado generado que contenga material inapropiado o información imprecisa, usa el formulario Denunciar sospechas de abuso en Google Cloud.

Recursos adicionales