WebWizard   27.4.2024 00:56    |    Benutzerkonto
contator.net » WebNews » WebWizard.at » Magazin » News-Links  
 

Wir brauchen Cookies, siehe unsere Datenschutzerklärung.















Neueste Artikel

Vorurteile und die KI
Supercomputer in Modulen
Kein Aprilscherz: Mobile- und Internettarife steigen
Smarte GesundheitWegweiser...
Übersehene Gefahr im UnternehmenWegweiser...
Intelligenz für den FlirtWegweiser...
Blinde sehen mit KI
Werbung 2024 in Prime VideoWegweiser...
Gratis: PDF editieren und ausfüllen
mehr...








UGC-Video-Werbung im Trend


Aktuelle Highlights

KI Sprache: Stimmen


 
WebWizard News-Links
Sicherheit  15.04.2023 (Archiv)

Fehler bei ChatGPT

Die von der Künstlichen Intelligenz (KI) ChatGPT erstellten Texte sind aktuell noch höchst fehleranfällig, wie eine Studie der University of Southern California unter der Leitung von Mayank Kejriwal und der Ingenieurstudentin Zhisheng Tang zeigt.

Sie haben ChatGPT und andere KI-basierte Systeme auf ihre Fähigkeit überprüft, rational zu arbeiten. ChatGPT stützt sich bei seiner Formulierung von Texten auf bereits vorhandene Basiskomponenten. Es 'lernt' aus riesigen Datensätzen, die über das Internet verteilt sind, und liefert das, was statistisch gesehen am wahrscheinlichsten richtig ist. 'Trotz ihrer beeindruckenden Fähigkeiten denken große Sprachmodelle nicht wirklich. Sie neigen dazu, elementare Fehler zu machen und sogar Dinge zu erfinden. Da sie jedoch eine fließende Sprache erzeugen, neigen die Menschen dazu zu glauben, dass sie denken können', sagt Kejriwal.

Dies, so Kejriwal und Tang, habe sie veranlasst, die vermeintlich kognitiven Fähigkeiten der Modelle zu untersuchen - eine Arbeit, die jetzt an Bedeutung gewonnen habe, da solche Textschöpfungsmodelle allgemein zugänglich sind. Sie haben Computer-Rationalität als die Fähigkeit definiert, sich bei verschiedenen Lösungsmöglichkeiten für jene zu entscheiden, die der Wahrheit am nächsten kommt oder sie punktgenau zu treffen. Bei ChatGPT haben die Wissenschaftler diese Rationalität eigenen Angaben nach in vielen Fällen nicht gefunden.

Besonders krass ist ein Fall, den die 'Washington Post' aufgedeckt hat. Im Rahmen einer Forschungsstudie hatte ein Anwalt in Kalifornien ChatGPT gebeten, eine Liste von Rechtswissenschaftlern zu erstellen, die jemanden sexuell belästigt hatten. Auf der Liste erschien auch der Name des Juraprofessors Jonathan Turley. Er habe sexuell anzügliche Kommentare abgegeben und versucht, einen Schüler während einer Klassenfahrt nach Alaska zu unsittlich berühren. Die KI 'zitierte' einen Artikel vom März 2018 in der Washington Post als Quelle. Doch einen solchen Artikel gibt es nicht. Auch die angesprochene Klassenfahrt hat nie stattgefunden. Woher ChatGPT die Info bezogen hat, ließ sich nicht rekonstruieren.

'Es ist eine sehr spezifische Kombination von Fakten und Unwahrheiten, die diese Systeme ziemlich gefährlich machen', sagt Kate Crawford, Professorin an der University of Southern California, die selbst betroffen ist. Sie sei kürzlich von einem Journalisten kontaktiert worden, der ChatGPT verwendete, um Quellen für eine Geschichte zu recherchieren. Der Bot schlug Crawford vor und bot Beispiele für ihre relevante Arbeit an, darunter einen Artikeltitel, ein Veröffentlichungsdatum und Zitate. Alles klang plausibel - und alles war gefälscht.

pte/red

Ihre Meinung dazu? Schreiben Sie hier!

#Technologie #ChatPGT #AI #KI #Fehler



Newsticker per eMail oder RSS/Feed!

Auch interessant!
KI beschriftet Diagramme
Für bessere, qualitativ hochwertige Beschriftungen von Diagrammen haben Forscher des Massachusetts Instit...

ChatGPT besteht Prüfungen
ChatGPT hat eine Prüfung der Radiological Society of North America bestanden. 'Die Verwendung großer Spra...

Buchhaltung per KI
Der jüngst KI-Chatbot 'GPT-4' von OpenAI soll künftig auch die Buchhaltung von Unternehmen übernehmen. Er...

Unmenschliche KI bei Kindern
Weder Amazons virtueller Assistent Alexa noch der autonome Robo-Staubsauger Roomba von iRobot sind wahrsc...

KI-Texte in Firmen
Künstliche Intelligenz (KI) zur Textgenerierung wie ChatGPT könnte bald in viele deutsche Unternehmen Ein...

Snapchat: ChatGPT wird sanfter
Instant-Messaging-Dienst Snapchat hat schnell auf Kritik der 'Washington Post' bezüglich der Nutzung von ...

Chancen und Grenzen der künstlichen Intelligenz
Mit ChatGPT 3 und jetzt GPT4 gelangen Schlagzeilen und so mancher Benutzer ist auf den Zug aufgestiegen. ...

Forum: Ihre Meinung dazu!

[AufZack Talk] [Forum]     
Ins Forum dazu posten...
Betreff/Beitrag:

   






Top Klicks | Thema Sicherheit | Archiv

 
 

 


Customized 2024


GTI Fanfest 2024


AMG GT 43 Coupe


Altblechliebe 4.0


Taycan mit 1100 PS


Porsche Taycan 2024


Aston Martin Vantage


Ist die Domain frei?

Aktuell aus den Magazinen:
 7 Mio-Jackpot Sechsfachjackpot im Lotto 6 aus 45
 EV5 Kia zeigt das SUV in Europa
 2,8 Mio. warten Dreifackjackpot in Österreich
 Menschenrechte Missbrauch im Namen des Klimas?
 Vierfachjackpot 4,5 Mio. im Topf im Lotto in Österreich

contator.net im Überblick:
 Webnews  WebWizard | Bundesland.at | Wien-Tipp.at | NewsTicker
 Business  Journal.at | Anfrage.net | plex | Seminar.At | BizTipp
 Auto  Auto.At | TunerAuto.At | OldtimerAuto.At | AutoTalk.At | AutoGuide.At | AutoBiz.At
 Freizeit  Style.at | Famili.at | Kinofilm.at | Musical.at | heavy.at | grlz | WitzBold | Advent.At
 Shopping  anna | Shoppingcity.at | SchatzWelt Gewinnspiele | Prozente.net Gutscheine
 Community  AufZack! | Flirtparty | Player | Schmuddelecke

Rechtliches
Copyright © 2024    Impressum    Datenschutz    Kontakt    Sitemap    Wir gendern richtig!
Tripple