Künstliche Intelligenz Experten fordern Pause bei KI-Entwicklung
Die rasante Entwicklung bei Künstlicher Intelligenz ruft Kritiker auf den Plan. Mehr als 1000 Experten aus Tech und Forschung - unter ihnen auch Elon Musk - fordern nun eine Entwicklungspause für neue KI-Modelle. Es brauche erst Sicherheitsstandards.
In einem offenen Brief haben Experten aus Forschung, Wissenschaft und der Tech-Branche eine Pause bei der Entwicklung von Künstlicher Intelligenz gefordert. Die Zeit solle genutzt werden, um ein Regelwerk für die Technologie zu schaffen, hieß es in dem Brief der gemeinnützigen Organisation Future of Life. Es sollten Sicherheitsstandards für die Entwicklung von KI festgelegt werden, um mögliche Schäden durch die riskantesten KI-Technologien abzuwenden.
Mittlerweile haben den Brief mehr als 1000 Menschen unterschrieben - unter ihnen Apple-Mitgründer Steve Wozniak, Tech-Milliardär Elon Musk und Pioniere der KI-Entwicklung wie Stuart Russel und Yoshua Bengio. Auch Konkurrenten der derzeit bekanntesten KI ChatGPT sind unter den Unterzeichnern.
Risiken seien derzeit unkalkulierbar
"KI-Systeme mit einer Intelligenz, die Menschen Konkurrenz macht, können große Risiken für Gesellschaft und Menschheit bergen", heißt es in dem Brief. "Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind."
Sogenannte Generative KI wie ChatGPT-4 oder DALL-E sei mittlerweile so weit fortgeschritten, dass selbst die Entwickler ihre Programme nicht mehr verstehen oder wirksam kontrollieren könnten, heißt es weiter. Dadurch könnten Informationskanäle mit Propaganda und Unwahrheiten geflutet werden. Auch Jobs, die nicht nur aus reinen Routinearbeiten bestünden und von Menschen als erfüllend wahrgenommen würden, könnten mittels solcher KI-Modelle wegrationalisiert werden.
Die Forderung nach einer Entwicklungspause bezieht sich auf KI der nächsten Generation, die noch mächtiger sei als ChatGPT-4. Ihre Entwickler sollten ihre Arbeit nachprüfbar einstellen. Geschehe dies nicht, müssten die Regierungen eingreifen und ein Moratorium anordnen, fordern die Unterzeichner.
Mit Aufruf Ängste schüren
Kritik an dem Aufruf kam von der Informatik-Professorin Johanna Börklund an der schwedischen Universität von Umeå. "Es gibt keinen Grund, die Handbremse zu ziehen."
Stattdessen sollten die Transparenz-Auflagen für Entwickler verschärft werden. Der Aufruf diene nur dazu, Ängste zu schüren.
OpenAI-Chef nicht unter den Unterzeichnern
ChatGPT und DALL-E werden von der Firma OpenAI entwickelt, an der Microsoft maßgeblich beteiligt ist. OpenAI-Chef Sam Altman hat den offenen Brief den Organisatoren zufolge nicht unterschrieben. Seine Firma reagierte zunächst nicht auf eine Bitte um Stellungnahme der Nachrichtenagentur Reuters.
Tech-Unternehmer Musk hatte OpenAI vor Jahren mitgegründet, sich aber aus dem Unternehmen zurückgezogen, nachdem Altman sich entschied, vor allem mit Microsoft zusammenzuarbeiten.
Seit ChatGPT im November vorgestellt wurde, liefern sich allen voran Microsoft und Google ein Rennen um die Vorherrschaft in dem Bereich. In schneller Abfolge werden neue Anwendungen vorgestellt. Auch Staaten wie China betrachten KI als strategisch wichtigen Sektor und wollen Entwicklern große Freiheiten lassen.
Zuletzt mehrten sich Warnungen vor KI-Gefahren
In Deutschland begrüßte der TÜV-Verband den offenen Brief. "Der Appell zeigt den politischen Handlungsbedarf für eine klare gesetzliche Regulierung Künstlicher Intelligenz", erklärte Joachim Bühler, Geschäftsführer des TÜV-Verbands. Nur so könne man die Risiken besonders leistungsfähiger KI-Systeme in den Griff bekommen.
Für den Einsatz von KI in sicherheitskritischen Bereichen wie der Medizin oder in Fahrzeugen, wo Fehlfunktionen fatale Folgen haben könnten, brauche es rechtliche Leitplanken, sagte Bühler. "Das schafft Vertrauen und fördert innovative Angebote, statt sie auszubremsen."
Auch Europol warnte bereits vor Risiken vor KI wie ChatGPT: "Die Fähigkeit von ChatGPT, sehr realistische Texte zu verfassen, macht es zu einem nützlichen Werkzeug für Phishing", hieß es. Dabei werden Opfer dazu gebracht, Zugangsdaten für Konten herauszugeben. Außerdem warnte Europol vor Desinformationskampagnen, die mit mittels KI mit minimalem Aufwand gestartet werden könnten. Kriminelle könnten sich zudem von der KI Schadsoftware schreiben lassen.