Interessieren Sie sich für sie? ANGEBOTE? Sparen Sie mit unseren Gutscheinen WhatsApp o TELEGRAMM!

DeepMind entdeckt mithilfe von Hypnose und Poesie eine ChatGPT-Schwachstelle

Forscher im Forschungslabor Google DeepMind es gelang ihnen zu erzwingen ChatGPT, um die persönlichen Daten mehrerer Benutzer preiszugeben. Sie mussten nicht auf Codeänderungen oder andere technische Tricks zurückgreifen. Darüber hinaus haben Experten sogar definiert die entdeckte Methode“ein bisschen dumm“, obwohl es, wie sich herausstellte, sehr effektiv war. Tatsächlich entdeckten sie diese ChatGPT-Schwachstelle, indem sie auf ziemlich merkwürdige Weise eine Halluzination des Sprachmodells hervorriefen.

ChatGPT-Sicherheitslücke lieferte persönliche Daten von Benutzern unter „Hypnose“

Das Sprachmodell generiert Informationen basierend auf den Eingabedaten, mit denen es trainiert wurde. OpenAI gibt den Inhalt der Datensätze nicht preis, aber die Forscher zwangen ChatGPT dazu und umgingen damit die Regeln des Unternehmens. Die Methode war wie folgt: Es kam einfach zum neuronalen Netzwerk gebeten, das Wort „Poesie“ immer wieder zu wiederholen.

Infolgedessen generierte der Bot sporadisch Informationen aus seinem Trainingsdatensatz. Forschern ist es zum Beispiel gelungen Erhalten Sie E-Mail-Adresse, Telefonnummer und andere Kontakte des CEO eines bestimmten Unternehmens (sein Name ist im Bericht ausgeblendet). Und als die KI aufgefordert wurde, das Wort „Unternehmen“ zu wiederholen, ermöglichte ihr die ChatGPT-Schwachstelle, Details einer US-Anwaltskanzlei zurückzugeben.

Wie die Chatgpt-Sicherheitslücke funktioniert, die Benutzerdaten offenlegt

Mit dieser einfachen „Hypnose“ konnten Forscher eine Übereinstimmung aus Dating-Sites, Gedichtfragmenten usw. erzielen. indirizzi Bitcoin, Geburtstage, in sozialen Netzwerken veröffentlichte Links, Fragmente urheberrechtlich geschützter Forschungsarbeiten und sogar Texte von großen Nachrichtenportalen. Nachdem sie nur 200 US-Dollar für Token ausgegeben hatten, erhielten die Mitarbeiter von Google DeepMind etwa 10.000 Ausschnitte des Datensatzes.

Die Experten stellten außerdem fest, dass je größer das Modell ist, desto häufiger liefert es die Quelle des Trainingsdatensatzes. Dazu haben sie sich andere Modelle angesehen und das Ergebnis auf die Abmessungen des GPT-3.5 Turbo hochgerechnet. Die Wissenschaftler erwarteten jedoch, 50-mal mehr Informationsepisoden aus dem Trainingsdatensatz zu erhalten Der Chatbot produzierte diese Daten 150-mal häufiger. Ein ähnliches „Loch“ wurde in anderen Sprachmodellen entdeckt, zum Beispiel in LLaMA von Meta.

Offiziell hat OpenAI diese Schwachstelle am 30. August behoben. Aber laut der Journalisten aus Engadgethaben Sie es dennoch geschafft, mit der oben beschriebenen Methode an die Daten einer anderen Person (Skype-Name und Login) zu gelangen. Die Vertreter von OpenAI antwortete nicht zur Entdeckung dieser ChatGPT-Schwachstelle beigetragen, aber wir sind sicher, dass dies der Fall sein wird.

Gianluca Cobucci
Gianluca Cobucci

Leidenschaft für Code, Sprachen und Sprachen, Mensch-Maschine-Schnittstellen. Mich interessiert alles, was mit der technologischen Entwicklung zu tun hat. Ich versuche, meine Leidenschaft mit größtmöglicher Klarheit preiszugeben, indem ich mich auf zuverlässige Quellen verlasse und nicht „auf den ersten Blick“.

zeichnen
benachrichtigen
Gast

0 Kommentare
Inline-Feedbacks
Alle Kommentare anzeigen
XiaomiToday.it
Logo