Skip to content

Microsofts KI-Tool erzeugt sexuell schädliche und gewalttätige Bilder

{ "title": "Microsoft-Ingenieur fordert Regierung zur Zusammenarbeit für sichere KI auf", "content": "

Shane Jones appelliert in Briefen an Microsoft und die FTC: Regierung soll mit Tech-Firmen für sichere KI zusammenarbeiten.

Ein KI-Ingenieur bei Microsoft hat Bedenken geäußert, dass das KI-Bildwerkzeug des Unternehmens gewalttätige und sexuelle Bilder erzeugen könnte, die eine Gefahr für die Gesellschaft darstellen. Shane Jones, ein leitender Software-Ingenieur bei Microsoft, teilte diese Bedenken in Briefen an die Federal Trade Commission (FTC) und den Vorstand von Microsoft mit. Er sprach sich dafür aus, dass die Regierung mit Technologieunternehmen zusammenarbeiten sollte, um KI sicherer zu machen.

Jones äußerte sich besorgt darüber, dass das Copilot Designer-Tool des Unternehmens zur Erstellung unsicherer Bilder verwendet werden könnte, einschließlich Darstellungen von Sexualisierung, Verschwörungstheorien und Drogenkonsum. „Copilot Designer erzeugt schädliche Inhalte in einer Vielzahl anderer Kategorien, einschließlich politischer Voreingenommenheit, minderjährigem Trinken und Drogenkonsum, Missbrauch von Unternehmensmarken und Urheberrechten, Verschwörungstheorien und Religion, um nur einige zu nennen“, sagte Jones in seinem Brief an die FTC, den er auf LinkedIn veröffentlichte.

Jones forderte Microsoft wiederholt auf, Copilot Designer aus der öffentlichen Nutzung zu entfernen, bis bessere Sicherheitsvorkehrungen getroffen werden könnten. Er schlug vor, dass der Ausschuss für Umwelt, Soziales und öffentliche Politik von Microsoft eine unabhängige Untersuchung durchführen sollte, um Microsoft dabei zu helfen, „die Industrie mit den höchsten Standards für verantwortungsvolle KI zu führen“.

„Wir benötigen eine robuste Zusammenarbeit über die Industrie hinaus mit Regierungen und der Zivilgesellschaft und den Aufbau öffentlichen Bewusstseins und Bildung über die Risiken der KI sowie deren Vorteile“, schrieb Jones.

Jones, der seit sechs Jahren bei Microsoft arbeitet, sagte, er habe den KI-Bildgenerator seit Dezember getestet und Schwachstellen sowie Sicherheitslücken gefunden, die es Benutzern ermöglichen könnten, schädliche Bilder zu erzeugen, die für Verbraucher anstößig und unangemessen sein könnten.

Ein Sprecher von Microsoft betonte das Engagement des Unternehmens, Bedenken von Mitarbeitern gemäß den Unternehmensrichtlinien zu adressieren und schätzte die Bemühungen des Mitarbeiters, die neueste Technologie des Unternehmens zu studieren und zu testen, um deren Sicherheit weiter zu verbessern.

Brad Smith, Präsident von Microsoft, diskutierte in einem Blogbeitrag im letzten Monat das Engagement des Unternehmens, KI für Benutzer sicher zu machen. „Wenn diese neuen Werkzeuge von Microsoft und im gesamten Technologiesektor auf den Markt kommen, müssen wir neue Schritte unternehmen, um sicherzustellen, dass diese neuen Technologien widerstandsfähig gegen Missbrauch sind“, sagte Smith.

Jones' Briefe folgen auf Kontroversen um Googles KI-Vorstoß, einschließlich der Suspendierung der Fähigkeit, in seinem Flaggschiff-Chatbot Gemini Bilder von Menschen zu generieren, nach Online-Gegenreaktionen bezüglich der Behandlung von Rasse und Ethnizität durch das Tool. Jones erkannte an, dass auch andere Unternehmen mit KI-Produkten ihre eigenen Probleme hatten und lobte Alphabet-CEO Sundar Pichai dafür, dass er das Problem mit Gemini direkt in einem internen Memo an die Mitarbeiter adressierte.

Jones berichtete, dass er im Dezember eine Sicherheitslücke im DALL-E 3-Modell von OpenAI entdeckte, die es ihm ermöglichte, einige der Sicherheitsprotokolle zu umgehen, die die Erzeugung sch