In dieser Anleitung werden die verantwortungsbewussten KI-Funktionen in Vertex AI, potenzielle Modelleinschränkungen und Best Practices für die sichere und verantwortungsbewusste Entwicklung von Anwendungen mit generativer KI beschrieben. Auf dieser Seite werden die folgenden Themen behandelt: Wenn Sie die generativen APIs in Ihren Anwendungsfall und Kontext einbinden, müssen Sie möglicherweise zusätzliche Faktoren und Einschränkungen für die verantwortungsbewusste Anwendung von KI berücksichtigen. Wenn Sie Fairness, Interpretierbarkeit, Datenschutz und Sicherheit fördern möchten, sollten Sie die empfohlenen Vorgehensweisen befolgen. Informationen zur Verwendung von Sicherheitsfiltern und ‑attributen für eine API finden Sie unter Gemini API in Vertex AI. Generative KI-Modelle haben Einschränkungen, die Ihnen möglicherweise begegnen, darunter die folgenden: Grenzfälle: Ungewöhnliche, seltene oder außergewöhnliche Situationen, die in den Trainingsdaten nicht gut dargestellt werden. Diese Fälle können zu Leistungseinschränkungen führen, z. B. Modellselbstüberschätzung, Fehlinterpretation des Kontexts oder unangemessene Ausgaben. Modellhalluzinationen, Fundierung und Fakten: Generative KI-Modelle können Ausgaben erzeugen, die plausibel klingen, aber faktisch falsch sind, da ihnen Wissen über die reale Welt oder ein genaues Verständnis physischer Eigenschaften fehlt. Um Halluzinationen zu reduzieren, können Sie Modelle auf Ihre spezifischen Daten anwenden. Weitere Informationen finden Sie unter Fundierungsübersicht. Datenqualität und Abstimmung: Die Qualität, Genauigkeit und Verzerrung der Eingabeaufforderung oder Daten haben einen erheblichen Einfluss auf die Modellleistung. Ungenauer oder voreingenommener Input kann zu suboptimaler Leistung oder falschen Ausgaben führen. Vorurteile: Generative KI-Modelle können vorhandene Vorurteile aus ihren Trainingsdaten verstärken. Dies kann zu Ergebnissen führen, die gesellschaftliche Vorurteile und die ungleiche Behandlung bestimmter Gruppen weiter verstärken. Sprachqualität: Die Leistung von Modellen kann je nach Sprache, Dialekt und Sprachvariante variieren. Bei Sprachen oder Dialekten, die in den Trainingsdaten unterrepräsentiert sind, kann die Leistung geringer sein. Die Modelle haben zwar beeindruckende mehrsprachige Funktionen, die meisten Benchmarks, einschließlich aller Fairness-Evaluierungen, sind jedoch auf Englisch. Weitere Informationen finden Sie im Google Research-Team-Blog. Fairness-Benchmarks und Untergruppen: Die Fairness-Analysen von Google Research decken nicht alle potenziellen Risiken ab. Die Analysen konzentrieren sich beispielsweise auf Vorurteile im Hinblick auf Geschlecht, ethnische Herkunft, Ethnie und Religion. Es werden jedoch nur englischsprachige Daten und Modellausgaben verwendet. Weitere Informationen finden Sie im Google Research-Team-Blog. Eingeschränktes Fachwissen: Modelle haben möglicherweise nicht das nötige Wissen, um präzise und detaillierte Antworten im Fall von hoch spezialisierten oder technischen Themen zu liefern. Dies kann zu oberflächlichen oder falschen Informationen führen. Bei spezialisierten Anwendungsfällen sollten Sie in Erwägung ziehen, Modelle auf domainspezifische Daten abzustimmen und eine sinnvolle menschliche Überwachung einzubeziehen, insbesondere in Kontexten, die sich auf die Rechte von Einzelpersonen auswirken können. Länge und Struktur der Ein- und Ausgaben: Modelle haben ein maximales Tokenlimit (Wortteile) für Ein- und Ausgaben. Wenn die Ein- oder Ausgabe diesen Grenzwert überschreitet, werden die Sicherheitsklassifikatoren des Modells nicht angewendet. Dies kann zu einer geringeren Modellleistung führen. Außerdem können sich ungewöhnliche oder komplexe Eingabedatenstrukturen negativ auf die Leistung auswirken. Um diese Technologie sicher und verantwortungsvoll zu nutzen, sollten Sie neben den integrierten technischen Sicherheitsmaßnahmen auch die Risiken berücksichtigen, die für Ihren Anwendungsfall spezifisch sind. Gehen Sie so vor: Wenn Sie einen mutmaßlichen Missbrauch des Dienstes oder eine generierte Ausgabe mit unangemessenen oder ungenauen Informationen melden möchten, verwenden Sie das Formular Einen mutmaßlichen Missbrauch in Google Cloudmelden.
Sicherheitsfilter und ‑attribute
Modelleinschränkungen
Empfohlene Vorgehensweisen
Missbrauch melden
Zusätzliche Ressourcen
Responsible AI
Sofern nicht anders angegeben, sind die Inhalte dieser Seite unter der Creative Commons Attribution 4.0 License und Codebeispiele unter der Apache 2.0 License lizenziert. Weitere Informationen finden Sie in den Websiterichtlinien von Google Developers. Java ist eine eingetragene Marke von Oracle und/oder seinen Partnern.
Zuletzt aktualisiert: 2025-08-19 (UTC).