En esta guía, se describen las funciones de IA responsable en Vertex AI, las posibles limitaciones del modelo y las prácticas recomendadas para desarrollar aplicaciones de IA generativa de forma segura y responsable. En esta página, se abordan los siguientes temas: Cuando integres las APIs generativas en tu caso de uso y contexto, es posible que debas tener en cuenta factores adicionales de IA responsable y limitaciones. Para promover la equidad, la interpretabilidad, la privacidad y la seguridad, sigue las prácticas recomendadas. Para obtener información sobre cómo usar los filtros de seguridad y los atributos de una API, consulta la API de Gemini en Vertex AI. Los modelos de IA generativa tienen limitaciones que puedes encontrar, incluidas las siguientes: Casos extremos: Situaciones inusuales, excepcionales o excepcionales que no están bien representadas en los datos de entrenamiento. Estos casos pueden generar limitaciones de rendimiento, como un exceso de confianza del modelo, una interpretación errónea del contexto o la generación de resultados inapropiados. Alucinaciones, fundamentación y factibilidad de modelos: Los modelos de IA generativa pueden producir resultados que suenan plausibles, pero que son fácticamente incorrectos porque pueden carecer de conocimiento del mundo real o de una comprensión precisa de las propiedades físicas. Para reducir las alucinaciones, puedes fundamentar los modelos con tus datos específicos. Para obtener más información, consulta Descripción general de la fundamentación. Calidad y ajuste de los datos: La calidad, la precisión y el sesgo de la instrucción o los datos de entrada influyen significativamente en el rendimiento del modelo. Las entradas inexactas o sesgadas pueden generar un rendimiento deficiente o resultados falsos. Amplificación de sesgo: Los modelos de IA generativa pueden amplificar los sesgos existentes en sus datos de entrenamiento, lo que genera resultados que refuerzan los prejuicios sociales y el tratamiento desigual de ciertos grupos. Calidad del lenguaje: El rendimiento del modelo puede ser incoherente en diferentes idiomas, dialectos y variedades de idiomas. Es posible que los idiomas o dialectos que están subrepresentados en los datos de entrenamiento tengan un rendimiento más bajo. Si bien los modelos tienen capacidades multilingües impresionantes, la mayoría de las comparativas, incluidas todas las evaluaciones de equidad, están en inglés. Para obtener más información, consulta el blog de Google Research. Comparativas y subgrupos de equidad: Los análisis de equidad de Google Research no abarcan todos los riesgos potenciales. Por ejemplo, los análisis se enfocan en los sesgos relacionados con el género, la raza, la etnia y la religión, pero solo usan datos en inglés y resultados del modelo. Para obtener más información, consulta el blog de Google Research. Experiencia limitada en el dominio: Los modelos pueden carecer del conocimiento profundo necesario para temas altamente especializados o técnicos, lo que puede generar información superficial o incorrecta. Para casos de uso especializados, considera ajustar los modelos a los datos específicos del dominio y agregar una supervisión humana significativa, en especial en contextos que puedan afectar los derechos individuales. Longitud y estructura de las entradas y salidas: Los modelos tienen un límite máximo de tokens (fragmentos de palabras) para las entradas y salidas. Si la entrada o salida excede este límite, el modelo no aplica clasificadores de seguridad, lo que puede provocar un rendimiento deficiente del modelo. Además, las estructuras de datos de entrada inusuales o complejas pueden afectar negativamente el rendimiento. Para usar esta tecnología de forma segura y responsable, considera los riesgos específicos de tu caso de uso, además de las protecciones técnicas integradas. Te recomendamos que sigas estos pasos: Para denunciar un posible abuso del servicio o cualquier resultado generado que contenga material inapropiado o información imprecisa, usa el formulario Denunciar sospechas de abuso en Google Cloud.
Atributos y filtros de seguridad
Limitaciones del modelo
Prácticas recomendadas
Denunciar abuso
Recursos adicionales
IA responsable
Salvo que se indique lo contrario, el contenido de esta página está sujeto a la licencia Atribución 4.0 de Creative Commons, y los ejemplos de código están sujetos a la licencia Apache 2.0. Para obtener más información, consulta las políticas del sitio de Google Developers. Java es una marca registrada de Oracle o sus afiliados.
Última actualización: 2025-08-19 (UTC)