ChatGPT verändert, wie wir schreiben!

Kennt vermutlich jeder: mithilfe von ChatGPT eine tagelang aufgeschobene E-Mail schreiben. Die KI hilft bei Formulierungen und man braucht sich selbst keinen Kopf zu machen. Doch habt ihr euch dabei schon einmal gefragt, inwiefern die großen Sprachmodelle (LLM = Large Language Models) einen eigenen Schreibstil pflegen? Damit hat sich Ritesh Chugh für The Conversation auseinandergesetzt.

Künstliche Intelligenz hat eine Vorliebe für Phrasen

Ist euch schon mal aufgefallen, dass bestimmte Formulierungen immer und immer wieder in Social-Media-Beiträgen, Nachrichtenartikeln, aber auch akademischen Texten auftauchen? Zum Beispiel Phrasen wie „delve into“ (= in die Tiefe gehen) und „navigate the landscape“ (= durch die Landschaft navigieren, im übertragenen Sinn aber auch: sich in einem Themengebiet zurechtfinden)?

Diesen Trend erklärt Chugh, der zu Informations- und Kommunikationstechnologien an einer australischen Universität forscht, mit dem zunehmenden Einsatz generativer Tools wie ChatGPT. Der Einsatz ist nachvollziehbar: Wissenschaftler können sich fachlich korrekt ausdrücken. Damit aber auch fachfremde Personen nicht zu sehr über die Formulierungen in wissenschaftlichen Arbeiten stolpern, können Sprach-KI und deren Formulierungshilfen nützlich sein.

Wie groß schätzt ihr das Problem ein?
Bild zum Beitrag
Computer, Internet, Schule, Zukunft, Technik, Intelligenz, Gesellschaft, ChatGPT
ChatGPD im Linux Terminal, Problem beim API Key eingeben?
ich@meinem Laptop:~$ ai 'bist du da?'
ERROR: missing API key
Please set the environment variable AI_PY_API_KEY or set api_key in /home/nitya_deva/.config/ai-py/config.json
ich@meinem Laptop:~$ ai 'bist du da?'
Traceback (most recent call last):
 File "/usr/local/bin/ai", line 533, in <module>
   main()
 File "/usr/local/bin/ai", line 144, in main
   chat_once(session, pm, args.prompt)
 File "/usr/local/bin/ai", line 152, in chat_once
   res_message = session.chat(user_message)
 File "/usr/local/bin/ai", line 402, in chat
   res_message, data, messages = self.create_completion(params_override=params_override)
 File "/usr/local/bin/ai", line 436, in create_completion
   raise RequestError(e.status, e.read().decode()) from None
__main__.RequestError: RequestError: 429, {
   "error": {
       "message": "You exceeded your current quota, please check your plan and billing details. For more information on this error, read the docs: https://platform.openai.com/docs/guides/error-codes/api-errors. ",
       "type": "insufficient_quota",
       "param": null,
       "code": "insufficient_quota"
   }
}

Das ist meine Ausgabe. Ich habe diese Anleitung verfolgt! Meine Telefonnummer registrierte ich bei ChatGPT, in Verbindung mit meinem Account, um den API Key zu bekommen. Bei diesem Befehl hier bin ich mir nicht ganz sicher, wohin die Datei .ai_py_config.json gespeichert werden soll.

echo '{"api_key":"<Your API key>"}' > ~/.ai_py_config.json

Ich habe die in den Ordnern: /home/ich/.config/ai-py und in: /usr/local/bin

Bitte verzeiht mein Unwissen. Ich bin ein Laie und wollte nur ChatGPT im Terminal nutzen.

(Linux Mint 21.3 Cinnamon)

Software, Linux, programmieren, cmd, Code, künstliche Intelligenz, Linux Mint, Mint, Progamm, ChatGPT
Ist ChatGPT das Ende der Möchtegern-Faktenchecker auf gutefrage.net und anderen PlattformenCo?

Leider sind auf gutefrage.net viele Pseudofaktenchecker unterwegs, die sich selbst kaum an die Fakten halten und dies noch nicht einmal einsehen wollen.

Doch mittlerweile beantwortet die aktuelle Version 4o von ChatGPT antworten auf dem selben Level der Genauigkeit und Richtigkeit, wie eine echter menschlicher Experte auf einem bestimmten Fachgebiet.

Und irgendwann kommt einmal auch die Zeit, wo ChatGPT Fragen sogar noch besser beantworten wird als ein menschlicher Experte.

Zwar hat man besonders bei kontroversen Themen wie Reinkarnationsforschung (mit widersprüchlichen Trainigsdaten) immer noch die Möglichkeit Antworten so zu erhalten, wie sie einem passen. Aber durch genauere und kritische Nachfragen klären sich mit ChatGPT dann doch viele Dinge auf, die im öffentlichen Diskurs (und auch auf gutefrage.net) viel Verwirrung stiften.

Gegenüber dem Reinkarnationsforscher Ian Stevenson wurde aus dem Lager der GWUP und Skeptiker-Bewegung immer wieder vorgeworfen, seine Forschungen seien nutzlos, weil dieser angeblich Suggestivfagen an die Probanden gestellt hätte.

Zwar war mir aufgrund meiner intensiven Studien dieser Forschungergebnisse klar, dass dieser Vorwurf nur zeigt, dass man sich nie wirklich mit dem Thema auseinander gesetzt hatte. Aber mit Hilfe von ChatGPT kann man auch diesen Punkt jetzt endlich schnell und effizient auflösen bzw. widerlegen.

Wo man sich früher, auch wenn man sich mit dem Thema auskennt, viel Schreibarbeit hätte machen müssen, um dies als Humbug zu entlarven und selbst diese Arbeit dann doch trotzt bester Recherche und Argumente wieder zerrissen worden wäre, durch die Möchtegern-Faktenchecker.

Nach dem Motto: Du hast eh keine Ahnung. Alles Unsinn, was Du schreibst.

https://chatgpt.com/share/66ed8d81-c5a4-8003-a616-8abf8db7fae7

https://chatgpt.com/share/66ed8daa-6e74-8003-b045-1ab4f1787d8d

Nein 82%
Leider Nein 9%
Weiß nicht 9%
Ja 0%
Ja Gott sei Dank 0%
Computer, Internet, gutefrage.net, Software, YouTube, Menschen, Wissenschaft, Social Media, Psychologie, Instagram, ChatGPT
Laut einem Fachzeitschrift-Artikel kann ChatGPT unter Umständen halluzinieren, stimmt das, wenn ja, unter welchen Umständen?

ChatGPT selber antwortet darauf so:

Ja, das stimmt. "Halluzinationen" in Bezug auf KI-Modelle wie ChatGPT beziehen sich auf Situationen, in denen das Modell Informationen generiert, die ungenau, falsch oder im schlimmsten Fall völlig erfunden sind. Diese Phänomene können auftreten unter verschiedenen Umständen:
Unzureichende Datenbasis: Wenn das Modell auf eine Anfrage stößt, für die es nicht genügend Daten oder Beispiele in seinem Trainingssatz hat, kann es sein, dass es eine Antwort generiert, die nicht der Realität entspricht.
Komplexe oder mehrdeutige Fragen: Fragen, die schlecht formuliert sind oder mehrere Interpretationen zulassen, können dazu führen, dass das Modell die Bedeutung missversteht und eine falsche oder unpassende Antwort gibt.
Wissen über aktuelle Ereignisse: Da das Modell nur bis zu einem bestimmten Zeitpunkt (Oktober 2021 für GPT-3 und September 2021 für ChatGPT) trainiert wurde, kann es keine aktuellen Ereignisse oder Informationen verarbeiten, was zu Fehlern in den Antworten führen kann.
Kontextuelle Missverständnisse: Wenn der Kontext oder die vorhergehenden Informationen unklar sind, kann das Modell falsche Annahmen treffen und dadurch ungenaue Informationen liefern.
Kreative Aufgaben: Bei kreativen Anfragen oder wenn das Modell aufgefordert wird, Geschichten oder hypothetische Szenarien zu erstellen, kann es seine Vorstellungskraft einsetzen, was manchmal zu halluzinatorischen Ausgaben führt.
Die Halluzinationen sind ein aktives Forschungsfeld, und Entwickler versuchen, die Genauigkeit und Zuverlässigkeit der Antworten zu verbessern, um diese Probleme zu minimieren.

Bedenkt ihr diese Möglichkeit beim Nutzen von ChatGPT, wie schließt ihr/man aus, solchen Irrtümern anheim zu fallen? Wie merkt man sowas überhaupt?

künstliche Intelligenz, Halluzinationen, ChatGPT
Pygame Flappy Bird?

Ich habe den folgenden Python-Code mit Pygame programmiert. Bin aber noch ein absoluter Anfänger, daher ist zwischen "#copy start" und "#copy end" der Code von ChatGPT generiert. Die Pipes werden trotzdem nicht angezeigt, weiß jemad woran das liegt?

import pygame
import os
import random

pygame.init()
width = 1280
height = 720
screen = pygame.display.set_mode((width, height), pygame.RESIZABLE)
pygame.display.set_caption("Flappy Bird")
PIPE_WIDTH = 80
PIPE_GAP = 150
PIPE_SPEED = 5
flappyY = 360
score = 0
highscore = 0
pipes = []
pipe_timer = 1
if not os.path.exists("highscore.txt"):
    with open("highscore.txt", "w") as file:
        file.write(str(highscore))
with open("highscore.txt", "r") as rfile:
    highscore = int(rfile.read())

#copy start
class Pipe:
    def __init__(self):
        self.x = width
        self.height = random.randint(100, height - PIPE_GAP - 100)
        self.passed = False
    
    def move(self):
        self.x -= PIPE_SPEED

    def draw(self, screen):
        # Draw upper pipe
        pygame.draw.rect(screen, (0, 255, 0), (self.x, 0, PIPE_WIDTH, self.height))
        # Draw lower pipe
        pygame.draw.rect(screen, (0, 255, 0), (self.x, self.height + PIPE_GAP, PIPE_WIDTH, height - self.height - PIPE_GAP))
    
    def off_screen(self):
        return self.x + PIPE_WIDTH < 0
#copy end

running = True
while running:
    for event in pygame.event.get():
        keys = pygame.key.get_pressed()
        if event.type == pygame.QUIT:
            running = False
    if keys[pygame.K_SPACE]:
        if flappyY > -16:       
            flappyY -= 1
    if flappyY < 704:
        flappyY += 0.4
    if score > highscore:
        highscore = score

    #copy start
    if pipe_timer > 100:
            pipes.append(Pipe())
            pipe_timer = 0

    for pipe in pipes:
        pipe.move()
        pipe.draw(screen)

        pipes = [pipe for pipe in pipes if not pipe.off_screen()]

        pipe_timer += 1
    #copy end


    pygame.display.set_caption(f"Flappy Bird (Highscore: {highscore:.0f})")
    rect = pygame.Rect(640, flappyY, 32, 32)
    #print(flappyY)
    screen.fill((0, 180, 255))
    pygame.draw.rect(screen, "red" , rect)
    pygame.display.update()
pygame.quit()

Vielen Dank und LG

Code, Programmiersprache, Python, Python 3, Pygame, Flappy bird, VS Code, ChatGPT

Meistgelesene Beiträge zum Thema ChatGPT