Wo kann ich Tokens für GPT-4 kaufen?

Hallo,

ich programmiere gerade einen Sprachassistenten und wollte ihn nun mit GPT-4 verbinden, ich habe auf Shop - ChatGPT 50000 Tokens gekauft, doch wenn ich das Programm starte, steht, dass ich trotzdem keinen Zugriff auf GPT-4 habe. Muss ich die Tokens irgendwo anders kaufen?

Mein Code:

import openai
import pyttsx3
import re
import pyjokes
import speech_recognition as sr
from pyowm import OWM
import spotipy
from spotipy.oauth2 import SpotifyOAuth
import time
import random
import datetime
import pytz
from geopy.geocoders import Nominatim
from timezonefinder import TimezoneFinder


openai.api_key = 'sk-...'
model_id = "gpt-4"

engine = pyttsx3.init()


def recognize_speech():
    recognizer = sr.Recognizer()

    while True:
        with sr.Microphone() as source:
            print("Sage etwas...")
            audio = recognizer.listen(source, timeout=15)

        try:
            text = recognizer.recognize_google(audio, language="de-DE")
            print("Text: " + text)
            return text
        except sr.UnknownValueError:
            return "not_understood"
        except sr.RequestError as e:
            print(f"Fehler bei der Anfrage an die Google Web Speech API: {e}")
            return ""


def openai_request(prompt):
    response = openai.ChatCompletion.create(
        model=model_id,
        messages=prompt
    )

    api_usage = response['usage']
    print('Total Token consumed: {0}'.format(api_usage['total_tokens']))
    prompt.append({'role': response.choices[0].message.role, 'content': response.choices[0].message.content})
    return prompt


def speak(text):
    engine.say(text)
    engine.runAndWait()


def ausführen():
    while True:
        q = recognize_speech()
        print("Erkannter Text:", q)

        if q == "not_understood":
            speak("Entschuldigung! Das habe ich nicht verstanden.")
            break

        elif not q:
            break

        elif "hallo" in q:
            speak('Hallo! Womit kann ich dir behilflich sein?')
            break

        else:
            prompt = [{'role': 'user', 'content': q}]
            prompt = openai_request(prompt)
            response = prompt[-1]['content']
            speak(response)


if __name__ == '__main__':
    ausführen()

Fehlercode:

C:\Users\User\PycharmProjects\voiceAssistant\venv\interpreter\Scripts\python.exe C:\Users\User\PycharmProjects\voiceAssistant\main.py 

Sage etwas...

Text: wann war der erste Weltkrieg

Erkannter Text: wann war der erste Weltkrieg

Traceback (most recent call last):

 File "C:\Users\User\PycharmProjects\voiceAssistant\main.py", line 83, in <module>

  ausführen()

 File "C:\Users\User\PycharmProjects\voiceAssistant\main.py", line 77, in ausführen

  prompt = openai_request(prompt)

       ^^^^^^^^^^^^^^^^^^^^^^

 File "C:\Users\User\PycharmProjects\voiceAssistant\main.py", line 43, in openai_request

  response = openai.ChatCompletion.create(

        ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^

 File "C:\Users\User\PycharmProjects\voiceAssistant\venv\interpreter\Lib\site-packages\openai\api_resources\chat_completion.py", line 25, in create

  return super().create(*args, **kwargs)

      ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^

 File "C:\Users\User\PycharmProjects\voiceAssistant\venv\interpreter\Lib\site-packages\openai\api_resources\abstract\engine_api_resource.py", line 153, in create

  response, _, api_key = requestor.request(

              ^^^^^^^^^^^^^^^^^^

 File "C:\Users\User\PycharmProjects\voiceAssistant\venv\interpreter\Lib\site-packages\openai\api_requestor.py", line 298, in request

  resp, got_stream = self._interpret_response(result, stream)

            ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^

 File "C:\Users\User\PycharmProjects\voiceAssistant\venv\interpreter\Lib\site-packages\openai\api_requestor.py", line 700, in _interpret_response

  self._interpret_response_line(

 File "C:\Users\User\PycharmProjects\voiceAssistant\venv\interpreter\Lib\site-packages\openai\api_requestor.py", line 765, in _interpret_response_line

  raise self.handle_error_response(

openai.error.InvalidRequestError: The model `gpt-4` does not exist or you do not have access to it. Learn more: https://help.openai.com/en/articles/7102672-how-can-i-access-gpt-4.

Process finished with exit code 1

Freundliche Grüsse

kaufen, Code, Error, künstliche Intelligenz, Programmiersprache, Python, Python 3, token, Sprachassistent, Pycharm, ChatGPT
Stable Beluga hängt sich nach zu vielen Eingaben auf. Was kann ich tun?

Guten Tag meine Damen und Herren.

Ich habe schon seit fast einem halben Jahr, mit selbst gehosteten LLMs zu tun und wollte gestern map etwas neues ausprobieren. Und zwar habe ich mir StableBeluga-7B geholt, da es kleiner ist und deshalb schnell Antworten generiert. Diese Antworten sind dann zwar nicht so präzise wie bei StableBeluga-13B oder StableBeluga2, aber in meinem Versuch geht es in erster Linie um Geschwindigkeit und der Unterschied in den Antworten ist auch nicht so groß.

Also kommen wir zur Frage. Stable Beluga 7B läuft eigentlich ganz gut, aber wenn ich zu lange mit dem LLM schreibe, oder zu viele Fragen gestellt habe, ich weiß nicht genau woran es liegt, gibt mir die KI nur noch den ersten Buchstaben der Antwort aus, beendet den Antwortprozess und wartet auf die nächste Eingabe des Benutzers(also ich). Sobald ich den Chat löschen, und eine neue Unterhaltung starte, ist das Problem sofort wieder weg, kommt allerdings unter den bereits beschriebenen Umständen wieder. Es kommt KEINE Fehlermeldung.

Das wäre ja auch eigentlich nicht so schlimm. Aber das Problem an der Sache ist, das das LLM sich im neuen Chat logischerweise nicht mehr auf die vorherige unterhaltung beziehen kann, was besonders bei Problem Lösungs Diskussionen Z.B. "wie kann ich das Problem --- an meinem Computer lösen" wichtig ist, denn StableBeluga läuft Offline und weiß nur dass, was man ihm mal erzählt hat. Wenn ich jetzt also den Chat Verlauf, in dem ich bereits viel über Z.B. Computer geredet habe, lösche, weiß StableBeluga nahezu nichts mehr über in diesem Beispiel Computer.

Ich benutze LLMs also nicht, um mir Arbeit beim denken abzunehmen, sondern um das, was ich schon weiß oder neu lernen, zu sortieren und wenn ich es brauche ohne aufwand geordnet abzurufen und mich genau an das Wissen zu erinnern, das ich zum Beispiel mal wusste, aber wieder vergessen habe.

Mein System:

Intel Core i7-13700K (war ein Upgrade, falls jemand auf den bottleneck zur 3050 aufmerksam machen will)

GeForce RTX 3050 (8GB VRAM)

16GB DDR4 3200MHz RAM

Debian Linux

Weiß jemand eine Lösung.

Ich weiß eine Lösung und zwar... 0%
Ich habe das gleiche Problem. 0%
Mir fehlen noch Informationen und zwar... 0%
Software, Linux, künstliche Intelligenz
MacBook Pro zum Programmieren?

Hallo liebe Community,

ich lerne momentan Coding über die CS50 Kurse von HarvardX. Ich bin beim ersten Kurs „CS50P: Introduction to Programming with Python”. Darauf folgen sollen “CS50X: Introduction to Data Science”, “CS50's Web Programming with Python und JavaScript” und zu guter letzt “CS50's Introduction to artificial intelligence”. Ich werde noch einige weitere Kurse absolvieren, die mit Machine Learning, Deep Learning zu tun haben.

Ich will auch eine Ausbildung zum FI Anwendungsentwickler absolvieren und später noch in diese Richtung studieren.

Meine Frage: Hat ein MacBook Pro 14" mit dem M3-Pro Chip (Base) und 36GB RAM genug Power, um das Programmieren mit Machine Learning zu lernen und vielleicht auch etwas fortgeschrittener damit zu arbeiten? Ich bekomme das Gerät nämlich fast geschenkt. Also habe ich lange Spaß damit? So für die nächsten 3-4 Jahre des Lernens.

Ich will nur wissen, ob ich mit dem Gerät gut fahre. Bitte keine Tipps wie “Kauf dir lieber Windows” solche Diskussionen will ich gar nicht erst starten. 😂 Ich liebe einfach die Effizienz von den neuen MacBooks.

Ich hörte nur, dass Machine Learning doch mehr Leistung beansprucht und die GPU und RAM doch etwas mehr sein dürfen. Vielleicht reicht das ja für den Anfang.

liebe Grüße

Lernen, programmieren, künstliche Intelligenz, MacBook Pro, Programmiersprache, Python, web-development, Machine Learning
Was für ein Szenario würde eintreffen?

Ich beschreibe folgendes Szenario und ihr sagt mir was passieren würde, bitte sowas wie "das würde niemals passieren oder nicht realistisch" könnt ihr euch sparen, da es sowieso nur ein Gedankenspiel ist ^^

Szenario:

Wir (die Menschheit) hat es geschafft, das keiner mehr Arbeiten muss und keiner mehr Geld braucht. Nur noch Roboter arbeiten und Roboter reparieren sich gegenseitig. Aber jetzt kommt es, sie entwickeln nicht weiter, also wenn ein Roboter unreparierbar kaputt geht, wird der selbe nachproduziert, keine neue Version.

Die Menschheit würde technologisch auf dem selben Stand bleiben, aber jeder könnte zum Bäcker oder in ein Laden und sich das holen, was er will, ohne dafür Geld zu benötigen.

Wieder Hinweis, ja ja das ist sehr Realitätsfern aber es ist nur ein Gedankenspiel!

Ich glaube irgendwie das am Anfang alles friedlich wäre, jeder kann ausschlafen und muss sich um nichts kümmern aber das irgendwann viele Menschen vor langerweile oder so Austicken :D Viele würden denk ich erstmal Anfangen die Welt zu bereisen und Hobbies nachgehen aber auf lange Sicht gesehen, weis ich nicht ob sich der Mensch immer selber beschäftigen könnte, was sagt ihr ? Man kann ja auch niemanden beklauen, weil man alles was man will einfach sich "nehmen" kann?

Gesetze gibt es weiterhin, also Morden wird genauso bestraft, nur das der Polizist halt ein Roboter wäre ^^

Arbeit, Zukunft, Menschen, Roboter, Apokalypse, künstliche Intelligenz, Szenario

Meistgelesene Fragen zum Thema Künstliche Intelligenz