Künstliche Intelligenz

Fragen von Nutzern beantwortet das Programm nicht mit Links, wie dies klassische Suchmaschinen tun, sondern mit verständlich formulierten Texten, durch künstliche Intelligenz (KI) generiert. Plötzlich kann man mit dem Computer wie mit Menschen reden und bei Bedarf nachfragen.

Ist das die Suchmaschine der Zukunft: Statt dem Klicken, Lesen und Scrollen der bisherigen Internet-Suche einfach einen Chatbot befragen, der freundlich und konzise auf alles eine Antwort weiß?

Google ist auch in der KI-Industrie einer der führenden Akteure. Nicht nur hat der Konzern mit Lamda einen eigenen Chatbot – Googles Ingenieure waren es auch, die das «Transformer Model» entwickelt hatten, also den Typ von KI-Modell, der auch dem Chatbot von Open AI zugrunde liegt.

Doch Google war bisher sehr zurückhaltend darin, seine Fortschritte mit Sprachmodellen zu veröffentlichen und in die eigene Suchmaschine zu integrieren. Nur eine Handvoll ausgewählter Nutzer darf Lamda in einer bestimmten App namens Test Kitchen testen.

Das liegt zum einen wohl daran, dass die Technologie nach wie vor sehr fehleranfällig ist und Google negative Auswirkungen auf sein Geschäft befürchtet.

Ein anderes Problem von Sprach-KI ist: Es ist schwer, sie verlässlich zu machen. Chat-GPT kann zwar alle möglichen generellen Fragen erstaunlich gut beantworten, doch immer wieder behauptet es auch Unwahrheiten. Es zitiert zum Beispiel Studien, die es nie gegeben hat, oder erfindet Personen und Ereignisse. Es trifft regelmäßig falsche oder widersprüchliche Aussagen zu Fragestellungen, die ein gewisses physikalisches oder räumliches Vorstellungsvermögen erfordern. Gleiches gilt für sehr spezielle Wissensbereiche.

Chat-GPT kann Wissen wiedergeben – aber dass es auch Dinge erfindet, gehört zu so einem Modell dazu. «KI-Halluzinationen» heißt das Phänomen in Fachkreisen. Eine Lösung wäre, die KI so zu programmieren, dass sie auch Quellenangaben macht. Das ist bei Chat-GPT nicht der Fall.

Ein weiteres Problem von Sprachmodellen ist, dass sie viel Rechen-Power brauchen. Würden alle Suchanfragen, die Google bearbeitet, dem Chatbot gestellt, wären die Server bald überlastet – und eine derartige Rechenleistung zu zahlen, würde dauerhaft sehr teuer.

Doch die jüngsten Durchbrüche bei Open AI haben im Hause Google wohl Panik ausgelöst: Ein Manager sagte gegenüber der «New York Times», dass die weiteren Entwicklungen über die gesamte Zukunft des Konzerns entscheiden könnten. Offenbar kümmert sich nun CEO Sundar Pichai persönlich darum, wie man auf die neue Konkurrenz reagieren wird. Möglichst schnell wolle man eigene KI-Produkte veröffentlichen.

Richard Socher gründete you.com. Das Programm kombiniert die Funktionen einer klassischen Suchmaschine mit den neuesten KI-Funktionen – also einem Chatbot, einem Bild– und Textgenerator usw. Der Unterschied zu den Produkten von Open AI sei, dass you.com tatsächlich auch aktuelle Informationen, etwa zur Fußballweltmeisterschaft, verarbeiten könne und zudem Links als Quellenangaben liefere. You.com ist im Moment noch frei von Werbung. mehr Informationen

Der Hype um das KI-Programm ChatGPT reisst nicht ab: Der Bot schafft Ärzte-Prüfungen problemlos und wird sogar schon von Richtern benutzt. Auch in Alltagsfragen scheint das Tool auf alles eine Antwort zu haben. Aber Achtung: Längst nicht alles, was ChatGPT behauptet, stimmt auch. ChatGPT ist eigentlich so programmiert, dass es «Ich weiss es nicht» sagen kann. Aber die KI hat gelernt, dass wir User es lieber mögen, wenn sie das nicht tut. «Die KI basiert darauf, dass sie versucht, das nächste Wort in einem Satz vorherzusagen und wird so programmiert, dass sie Antworten gibt, die von Usern als nützlicher bewertet werden», erklärt ETH-Datenwissenschaftler Elliot Ash gegenüber Nau.ch. Das Modell wird dafür belohnt, dass es das tut, was frühere Benutzer mochten. «Im Normalfall wollen die Menschen eine Antwort, und sie wollen sie selbstbewusst präsentiert bekommen. Das ist ideal, wenn die Antwort richtig ist.» Damit die KI aber lernt, was nicht stimmt, müssen erst zahlreiche falsche Antworten schlecht bewertet werden. Ash glaubt, dass AI-Tools wie ChatGPT in weniger als zehn Jahren zu einem festen Bestandteil unseres Alltagslebens werden. mehr Informationen

Künstliche Intelligenz (KI) wird vielleicht nicht so bald euren Job übernehmen, aber Unternehmen nutzen sie schon jetzt, um zu entscheiden, wer entlassen werden soll. Das geht aus einer Capterra-Umfrage unter 300 US-amerikanischen Personalleitern aus dem vergangenen November hervor. Sie ergab, dass 98 Prozent der Befragten planen, im Jahr 2023 Software und Algorithmen zur Unterstützung bei Entlassungen einzusetzen.

Unternehmen setzen KI auch zur Leistungsbewertung und Überwachung von Mitarbeitern ein. Die Bank JP Morgan hat beispielsweise ein internes Unternehmenssystem eingesetzt, das Daten über die Aktivitäten der Mitarbeiter am Arbeitsplatz liefert, einschließlich der Zeit, die sie mit Zoom-Anrufen verbringen und was sie auf ihren vom Unternehmen zur Verfügung gestellten Mobiltelefonen tun.

Im Jahr 2017 stellte Amazon Berichten zufolge die Nutzung eines KI-Einstellungstools ein, das eine Voreingenommenheit gegenüber weiblichen Bewerbern erkennen ließ.

Wenn ein Unternehmen zum Beispiel Mitarbeiter, die einer Minderheit angehören, nicht gut behandelt und viele von ihnen kündigen, könnte die KI vorhersagen, dass andere Minderheiten ebenfalls kündigen werden. Dies könnte dazu führen, dass diese Mitarbeiter bei der nächsten Entlassungsrunde einem höheren Risiko ausgesetzt sind – also quasi doppelt schlecht behandelt werden.  mehr Informationen

Das große Problem ist, wenn die Quelle nicht mehr ersichtlich ist. Denn die Beurteilung der Quelle und die Kenntnis von nonverbalen Zusammenhängen verhelfen zu hilfreichen Ergebnissen. Das kann die künstliche Intelligenz nicht. Ansonsten ist es so, wie wenn man bei grün über eine Straße läuft, obwohl ein großer Laster ungebremst auf einem zurast.

In Offenbarung 13,15 in der Bibel steht etwas Sonderbares: „Es wurde ihm Macht gegeben, dem Standbild des Tieres Lebensgeist zu verleihen, sodass es auch sprechen konnte„.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert