Also ChatGPT ist manchmal echt sehr nützlich, vorallem fürs programmieren, jedoch zweifel ich manchmal an der richtigkeit der aussagen, natürlich wurde chatgpt 2021 trainiert und kann danach nichts mehr wissen, auch wenn gesagt wird, dass er noch trainiert wird, jedoch sollte er einfach sagen, dass er die antwort nicht weiß und nicht einfach irgendetwas erzählen. Hier ein Beispiel:
Was sagt ihr dazu? Warum ist das so? Vertraut ihr ChatGPT noch?