Der jüngste Bericht des Google Artificial Intelligence -Modells fehlt keine wichtigen Sicherheitsdetails, sagen Experten, sagen


Am Donnerstag, Wochen nach dem Start seines bisher leistungsstärksten Modells, Gemini 2.5 ProGoogle veröffentlicht a Technischer Bericht Zeigen Sie die Ergebnisse seiner internen Sicherheitsbewertungen. Der Bericht ist jedoch Licht zu Details, sagen Experten, was es schwierig macht, festzustellen, welche Risiken das Modell darstellen könnte.

Technische Berichte liefern nützlich und Wenig schmeichelhaftManchmal sind Informationen, die Unternehmen nicht immer für ihre KI bewerben. Im Allgemeinen sehe die Gemeinschaft von Ich diese Berichte als Bemühungen in gutem Glauben, unabhängige Forschungs- und Sicherheitsbewertungen zu unterstützen.

Google verfolgt einen anderen Sicherheitsberichtsansatz, den einige seiner KI -Konkurrenten nur dann veröffentlichen, sobald er der Ansicht ist, dass ein Modell die “experimentelle” Stufe abgeschlossen hat. Das Unternehmen enthält auch die Ergebnisse aller “gefährlichen Kapazität” -Etbewertungen in diesen Berichten. Reservieren Sie sie für ein separates Audit.

Mehrere Experten, mit denen TechCrunch sprach Frontier Safety Framework (FSF). Google hat die FSF im vergangenen Jahr in das, was es bezeichnete, als Anstrengung zur Identifizierung zukünftiger KI -Fähigkeiten eingereicht, die “schwere Schäden” verursachen könnten.

“Das [report] Es ist sehr knapp, es enthält minimale Informationen und links Wochen nach dem Modell der Öffentlichkeit, sagte Peter Wildeford, Co -Bestunder des AI -Instituts für Politik und Strategie, sagte er gegenüber TechCrunch. ” Es ist unmöglich zu überprüfen, ob Google seinen öffentlichen Verpflichtungen entspricht, und daher unmöglich, die Sicherheit und Sicherheit seiner Modelle zu bewerten. “

Thomas Woodsis, CO -Färter des Secure AI -Projekts, sagte, dass Google, obwohl er froh ist, einen Bericht für Gemini 2.5 Pro veröffentlicht zu haben, aber nicht überzeugt sei, dass das Unternehmen das Engagement des Unternehmens angemessene ergänzende Sicherheitsbewertungen anbietet. Woodsis sagte, dass Google das letzte Mal, als Google die Ergebnisse der gefährlichen Kapazitätstests veröffentlichte, im Juni 2024 für ein Modell im Februar im selben Jahr sei.

Google hat keinem Bericht für einen Bericht für einen Bericht zur Verfügung gestellt Gemini 2.5 FlashEin kleineres und effizienteres Modell als das Unternehmen letzte Woche angekündigt. Ein Sprecher sagte TechCrunch in einem Flash -Bericht “bald”.

“Ich hoffe, dies ist ein Google -Versprechen, häufigere Updates zu veröffentlichen”, sagte Woodsis gegenüber TechCrunch. “Diese Aktualisierungen sollten die Ergebnisse der Bewertungen für Modelle enthalten, die noch nicht öffentlich implementiert wurden, da diese Modelle auch ernsthafte Risiken einbringen könnten.”

Google war vielleicht eine der ersten Labors von AI, um standardisierte Berichte für Modelle vorzuschlagen, aber es ist nicht die einzige, die es war beschuldigt, ein niedriger Transparenzdienst zu sein in letzter Zeit. Ziel wurde a In ähnlicher Weise eine knappe Sicherheitsbewertung von seinem neuen Rufen Sie 4 an Open Models und Openai entschieden sich, keinen Bericht für seinen zu veröffentlichen GPT-4.1-Serie.

Der Kopf auf Google’s Head ist garantiert, dass der technologische Riese die Aufsichtsbehörden dazu veranlasste, ein hohes Maß an Tests und Sicherheitsberichten von KI aufrechtzuerhalten. Vor zwei Jahren, Google teilte der Regierung der Vereinigten Staaten mit Ich würde Sicherheitsberichte für alle “bedeutenden” “” “” “” “” “” “” “” “” Die Firma Dieses Versprechen folgte mit ähnlichen Verpflichtungen Zu Andere LänderVerpflichten Sie sich, “öffentliche Transparenz zu bieten”.

Kevin Bankston, Hauptberater der KI -Regierung im Zentrum der Demokratie und Technologie, beschrieb die Tendenz von sporadischen und vagen Berichten als “Karriere für den Hintergrund” zur Sicherheit der KI.

“In Kombination mit Berichten, dass Konkurrenten wie OpenAI vor Monaten bis Tagen ihre Sicherheitstestzeit rasiert haben, erzählt diese kleine Dokumentation für das Google AI -Modell eine besorgniserregende Geschichte über eine Karriere in Bezug auf den Hintergrund in der Sicherheit und Transparenz von KI wie Unternehmen, wie Unternehmen ihre Modelle auf den Markt”, sagte er gegenüber TechCrunch.

Google hat in Aussagen erklärt, dass sie vor dem Start Sicherheitstests und “rotes Geräte” für Modelle durchführen, obwohl sie in ihren technischen Berichten nicht detailliert sind.

Leave a Comment