Eine ernste Warnung eines Sicherheitsexperten, der OpenAI | verlassen hat Nachrichten Fin

OpenAI, das Unternehmen hinter dem Chatbot ChatGBT, gibt die Sicherheit auf und konzentriert sich auf „glänzende Produkte“, warnt ein ehemaliger Mitarbeiter des Unternehmens.

John Leake Spielte zuvor eine Schlüsselrolle in der Sicherheitsforschung von OpenAI. Seine Mission ist es, sicherzustellen, dass leistungsstarke KI-Systeme menschlichen Werten und Zielen folgen.

Leek trat wenige Tage vor der Einführung des neuesten Modells für künstliche Intelligenz von GPT, dem GPT-4o, zurück. Er schreibt in X, dass Sicherheit in der Organisation eine untergeordnete Rolle gespielt habe.

– In den letzten Jahren seien Sicherheitskultur und -prozesse hinter glänzenden Produkten zurückgeblieben, schreibt Leike.

Er sagt, er diskutiere seit langem mit der Unternehmensleitung über die Reihenfolge der Prioritäten. Schließlich „erreichte Leek seinen Bruchpunkt“.

Seiner Meinung nach sollte OpenAI mehr Ressourcen auf Sicherheit, soziale Wirkung und Zuverlässigkeit richten.

– Es ist sehr schwierig, in diesen Angelegenheiten Erfolg zu haben, und ich mache mir Sorgen, dass wir nicht in die richtige Richtung gehen. Maschinen intelligenter zu machen als Menschen ist ein riskantes Unterfangen. OpenAI trägt eine große Verantwortung für die gesamte Menschheit.

CEO von OpenAI Sam Altman Als Reaktion auf die Behauptungen von League hat OpenAI im Bereich Sicherheit noch viel zu tun, aber das Unternehmen ist fest entschlossen, erfolgreich zu sein.

Verantwortlich für die Ausrichtung auf Leekys Werte und Ziele Ilja Sutzkever Er hat das Unternehmen diese Woche verlassen. Chutskever ist einer der Gründer von OpenAI.

Er kommentierte den Clip Wächter.

Siehe auch  So entkam der 24-jährige Schütze der Polizei – der 15-jährige Ali kam am Neujahrstag auf tragische Weise ums Leben

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert