Frage an hauptberuflich tätige Software-Entwickler: Zu welchem Prozentsatz etwa habt Ihr folgende Aussage schon als tatsächlich wahr erlebt?
|
LLM-basierte Coding-Assistenten (analog zu Chat-GPT4o)Ein häufig genannter Anwendungsfall von generative AI sind Programmierassistenten, die grundlegenden Code schreiben. Darüber hinaus ermöglichen sie es Softwareentwicklern, sich auf komplexere Aufgaben zu konzentrieren. Diese Coding-Copiloten helfen Developern, im "Flow" zu bleiben, indem sie unter anderem Code-Kommentare in funktionierenden Code umwandeln. Zusätzlich verringern sie die Notwendigkeit, externe Ressourcen zu konsultieren. GenAI ist besonders effektiv im Bereich Webentwicklung, da sie den Aufwand für die Aktualisierung von Websites verringert. Zusätzlich ermöglicht sie es Nutzern ohne tiefere technische Kenntnisse, Code zu erstellen.
Quelle: https://www.cio.de/a/die-7-wichtigsten-genai-anwendungsfaelle,3738384
6 Antworten
Kommt auf den Bereich an. In gewissen Frameworks im Python-Umfeld funktioniert das schon ziemlich gut. Auch unter Berücksichtigung komplexer Semantik z.B. im Bereich Constraint Programming. Es steht und fällt alles mit der Ausgestaltung der Prompt.
Im Bereich Refaktorisierung und zur Dokumentierung des Codes nutze ich auch vermehrt LLM. In Kombination mit Profilern können die schon gute Vorschläge zu performancekritischen Optimierungen machen.
Halb/Halb
Ich nutze GitHub Copilot, ich schreib keine Kommentare, die der dann umsetzt, aber er autovervollständigt das, was ich schreibe und das bei einfachem Kram (und sowas wie Kommentaren) auch ziemlich zuverlässig.
Nebenbei nutze ich noch Claude.ai für allgemeinen Kram. Bei der Arbeit hilft es um repetetive Sachen zu automatisieren, z.B. um bestehenden Code umzuformen. Oder es implementiert einzelne Methoden auf, die an sich nicht sonderlich schwierig, aber eben aufwändigsind - funktioniert aber nur gut, wenn es unabhängige Logik ist. Oder es hilft bei der Recherch, um einen Denkanstoß zu liefern, etc. Hin und wieder lasse ich mir auch UnitTests generieren, der Code ist meist leicht zu überblicken, was es leichter/schneller macht, generierten Code zu kontrollieren, als selber zu schreiben. Und es gibt noch mehr Anwendungsfälle.
Also doch, ist ziemlich nützlich, aber eben auch nur dann, wenn man weiß und versteht, was man da tut und die Fragen an die KI richtig stellt.
Für jemanden ohne technische Kenntnisse halte ich das für utopisch. Ja, es funktioniert, aber eben nur bei Bilderbuch-Beispielen und bei realen Projekten ist das Ergebnis meistens eher schlecht.
PS:
Ich arbeite im Frontend und Backend von Web-Portalen für Behörden. Das Frontend ist meistens ziemlich simpel, im Backend können die Berechnungen und Prozesse aber durchaus sehr komplex sein - Deutsche Bürokratie eben ^^
Nein. Ich dachte, das hätte ich deutlich gemacht?
Aber das funktioniert eben nicht sofort mit einem Satz, man muss schon mehr Infos liefern, gezielte Anweisungen schreiben und das Ergebnis ggf. kontrollieren und überarbeiten lassen.
LLMs sind meiner Erfahrung nach fuer diesen Einsatzzweck komplett ungeeignet. Der vorgeschlagene Quelltext muss jedes mal aufwendig geprueft werden, da er oftmals kritische Fehler beinhaltet oder nur minder performant ist.
Ich bin hauptberuflich Softwareentwickler, hauptsächlich im Bereich Firmware für Sensor-ICs. Ich halte es für völlig ausgeschlossen, dass irgendeine Form von "KI" hier irgendwelchen brauchbaren Code abliefert.
Unabhängig davon, dass man LLMs vielleicht nicht seinen Code verraten sollte, sind die vorgeschlagenen Codes oft ineffizient und führen oft gerade in Kombination zu unnötigen Wartezeiten. Die Korrektur dauert dann meist länger als alles selbst zu schreiben.
Wenn man nur ne kleine batch braucht, kann man sich die aber auch aus Faulheit von gpt schreiben lassen
Danke. Das kann ich nachvollziehen.
Mein Eindruck ist: LLM-basierte KI kann Code Snippets erzeugen, wie man sie vor allem in Programmier-Lehrbüchern findet. Mehr aber wohl kaum. Würdest Du dem zustimmen?