Frage an hauptberuflich tätige Software-Entwickler: Zu welchem Prozentsatz etwa habt Ihr folgende Aussage schon als tatsächlich wahr erlebt?

6 Antworten

Kommt auf den Bereich an. In gewissen Frameworks im Python-Umfeld funktioniert das schon ziemlich gut. Auch unter Berücksichtigung komplexer Semantik z.B. im Bereich Constraint Programming. Es steht und fällt alles mit der Ausgestaltung der Prompt.

Im Bereich Refaktorisierung und zur Dokumentierung des Codes nutze ich auch vermehrt LLM. In Kombination mit Profilern können die schon gute Vorschläge zu performancekritischen Optimierungen machen.

Woher ich das weiß:Studium / Ausbildung – Ökonom (Dr.) + Informatiker (Master) + >10J Berufserfahrung

Halb/Halb

Ich nutze GitHub Copilot, ich schreib keine Kommentare, die der dann umsetzt, aber er autovervollständigt das, was ich schreibe und das bei einfachem Kram (und sowas wie Kommentaren) auch ziemlich zuverlässig.

Nebenbei nutze ich noch Claude.ai für allgemeinen Kram. Bei der Arbeit hilft es um repetetive Sachen zu automatisieren, z.B. um bestehenden Code umzuformen. Oder es implementiert einzelne Methoden auf, die an sich nicht sonderlich schwierig, aber eben aufwändigsind - funktioniert aber nur gut, wenn es unabhängige Logik ist. Oder es hilft bei der Recherch, um einen Denkanstoß zu liefern, etc. Hin und wieder lasse ich mir auch UnitTests generieren, der Code ist meist leicht zu überblicken, was es leichter/schneller macht, generierten Code zu kontrollieren, als selber zu schreiben. Und es gibt noch mehr Anwendungsfälle.

Also doch, ist ziemlich nützlich, aber eben auch nur dann, wenn man weiß und versteht, was man da tut und die Fragen an die KI richtig stellt.

Für jemanden ohne technische Kenntnisse halte ich das für utopisch. Ja, es funktioniert, aber eben nur bei Bilderbuch-Beispielen und bei realen Projekten ist das Ergebnis meistens eher schlecht.

PS:
Ich arbeite im Frontend und Backend von Web-Portalen für Behörden. Das Frontend ist meistens ziemlich simpel, im Backend können die Berechnungen und Prozesse aber durchaus sehr komplex sein - Deutsche Bürokratie eben ^^

Woher ich das weiß:Berufserfahrung – C#.NET Senior Softwareentwickler

grtgrt 
Beitragsersteller
 07.08.2024, 21:41

Danke. Das kann ich nachvollziehen.

Mein Eindruck ist: LLM-basierte KI kann Code Snippets erzeugen, wie man sie vor allem in Programmier-Lehrbüchern findet. Mehr aber wohl kaum. Würdest Du dem zustimmen?

0
Palladin007  07.08.2024, 21:42
@grtgrt

Nein. Ich dachte, das hätte ich deutlich gemacht?

Aber das funktioniert eben nicht sofort mit einem Satz, man muss schon mehr Infos liefern, gezielte Anweisungen schreiben und das Ergebnis ggf. kontrollieren und überarbeiten lassen.

0

LLMs sind meiner Erfahrung nach fuer diesen Einsatzzweck komplett ungeeignet. Der vorgeschlagene Quelltext muss jedes mal aufwendig geprueft werden, da er oftmals kritische Fehler beinhaltet oder nur minder performant ist.

Woher ich das weiß:eigene Erfahrung

grtgrt 
Beitragsersteller
 07.08.2024, 21:27

Ja, so sehe ich das auch.

1

Ich bin hauptberuflich Softwareentwickler, hauptsächlich im Bereich Firmware für Sensor-ICs. Ich halte es für völlig ausgeschlossen, dass irgendeine Form von "KI" hier irgendwelchen brauchbaren Code abliefert.


grtgrt 
Beitragsersteller
 07.08.2024, 21:34

Ich bin voll eben derselben Meinung.

1
tunik123  07.08.2024, 21:52
@grtgrt

... und ich bin wirklich sehr zurückhaltend mit solchen absoluten Äußerungen wie "völlig ausgeschlossen".

1

Unabhängig davon, dass man LLMs vielleicht nicht seinen Code verraten sollte, sind die vorgeschlagenen Codes oft ineffizient und führen oft gerade in Kombination zu unnötigen Wartezeiten. Die Korrektur dauert dann meist länger als alles selbst zu schreiben.

Wenn man nur ne kleine batch braucht, kann man sich die aber auch aus Faulheit von gpt schreiben lassen