Wie kann ich beweisen NICHT KI verwendet zu haben?

Hallo!

Ich bin gerade dabei ein Fernabi zu machen und habe ganz normal eine Einsendeaufgabe in English abgeschickt. 4 Tage später bekam ich dann eine Email, in welcher mir vorgeworfen wurde, KI für die Erstellung von 2 Aufgaben verwendet zu haben.

Vorab: Ich selber sehe keinen Sinn darin, Leistungen einzusenden, die nicht von mir stammen und Ich habe auch KEINE KI verwendet sondern lediglich beim verfassen meiner Texte den Text in einem Browser Extension namens “Grammarly” geschrieben, was einem einfach nur einen “Engagement”- und “Clarity” Feedback gibt.(Bei der Premium Version verbessert es natürlich auch Rechtschreibfehler, habe aber nur die unbezahlte Version genutzt, einfach nur aus Interesse wegen des Feedbacks) Es es keine KI, die (soweit ich weiß) in der Lage dazu ist, komplette Texte zu verfassen. Die Texte, die ich abgeschickt habe, wurden demnach auch von mir selber geschrieben.

In der Email wurde mir angeboten, Ich könne die Aufgaben ja nochmal machen, aber dieser Vorfall wird vermerkt. Ich möchte ja keine Beschulding irgendwo vermerkt haben, die komplett falsch ist? Was kann ich denn da jetzt machen, um denen klar zu machen, dass meine Texte von MIR verfasst wurden? Und wie genau wird das geprüft, ob es sich bei einem Text um KI handelt? Habe mich gestern informiert und diese KI Erkennungsprogramme schließen im Schnitt nicht so gut ab… Oder war es einfach rein durch die Formulierung und die Richtigkeit des Texts? In der Email stand zudem, dass sie Bestätigung zu meiner Nutzung von KI hätten. Wie genau beweisen die denn sowas?

Zudem bin ich sowieso Muttersprachler in English und habe schon immer ziemlich gute Texte geschrieben und sehe für mich keinen Grund, mir meine englischen Texte von KI verfassen zu lassen.

Hatte jemand schonmal das selbe Problem? Wie seid ihr vorgegangen?

Schule, Fernabitur, Hausaufgaben, künstliche Intelligenz, ILS Fernschule
Warum bekommt man von Google Bard gerne irgendeine wirrende Fantasie Antworten?

Hallo.

Also ich habe Google Bard probiert (Der Alternative von chatGPT), und irgendwie kann er manchmal für jede deine Antworten bestätigen und das ist ganz egal ob das gibt oder nicht.

Ich habe eine witzige bescheuerte frage gestellt, dass ich angeblich ein Toilette habe und man ein Betriebssystem installieren muss namens ToilettenOS, damit ich Spülen kann. Und der Google Bard bestätigte mir und meint dass ToilettenOS ein Linux basierte Betriebssystem für Toiletten sind. Und er hat mir auch Tutorial Anleitung geschickt wie man ToilettenOS auf dem Toiletten installiert. Man muss nur noch ToilettenOS auf USB Stick Bootbar Downloaden und dann denn Stick auf dem Toilette anschließen und installieren. Und angeblich soll dann beim Toiletten spülen soggar Musik abspielen.

Ich hab dann auch gefragt, ob es ein Visual Studio Alternative für Toilette gibt, da ich gerne mal C# Programmieren möchte. Auch da hat er auf ja geantwortet und meint, es soll ToilettenOS Studio geben.

Dann habe ich noch gefragt wo befindet sich das Display auf dem Toilette? Er antwortet, oben ist da so ein Touch Display.

Nach all solche wirrende Fantasie Antworten von Google Bard musste ich so lachen. Nur frage ich mich, warum macht er so? Ok ich kann verstehen das er noch in Experimentel ist, aber trotzdem sehe ich da kein logik warum er beim Antworten oft Fantasieren muss. Wenn Google Bard auf mein Frage nicht weiß, dann kann er mit wenigstens antworten das er keine infromationen hat anstatt manchmal irgendein wirrende Fantasie die es nicht gibt.

PC, Computer, Internet, online, Google, Rechner, Social Media, künstliche Intelligenz

Meistgelesene Beiträge zum Thema Künstliche Intelligenz