Servus!
Lieber Matthias,
Im Artikel geht er zum Schluss drauf ein, dass man auch die CHOP-Maschinen richtig bedienen muss.
bisher habe ich mir noch nicht die Zeit genommen, ein solches Prompt zu bedienen, daher habe ich nur Vermutungen und Aberglauben anzubieten. Meiner Einschätzung nach muss man lernen, wie man diese Werkzeuge sinnvoll bedient, denn diese LLMs sind genau das: Werkzeuge. Und meiner bisherigen Lektüre solcherlei Berichte nach scheinen sie umso bessere und brauchbrarere Ergebnisse zu liefern, je simpler die gestellte Aufgabe ist.
Nein, sie liefern bessere und brauchbarere Ergebnisse, je genauer die Anforderungen vorher definiert werden.
Beispiel: Eine Webseite soll einen Button erhalten. Da das LLM alle Webseiten des Jahres x indiziert hat, spuckt es dir ein klickbares div aus. Wenn du darauf hinweist, dass ein button evtl. besser wäre, gibt es dir Recht und erstellt ein barrierefreies Beispiel. Das könnte man mit besseren prompts gleich erzielen.
Hier habe ich wie bei unseren Personas dem LLM vorgegeben, verschiedene Personen aus den 20ern vorzustellen: Parteien_in_der_Weimarer_Republik#Bürger_und_Wähler - das hat auf Anhieb gut geklappt.
Alex Weller hat versucht, solche prompts per Auswahliste zusammenzustellen: CRAFT Prompt Generator - das würde ich mir irgendwann für Englisch selbst basteln wollen.
Auf der anderen Seite lese ich aber auch davon, dass der mit solchen Prompts erzeugte Code in größeren Softwareschmieden zu erhöhtem Debugging-Aufwand führt und letzten Endes sogar mehr Arbeitszeit kostet.
Wenn du einzelne Routinen/Funktionen/Scripte erstellen lässt und diese dann testest, kann man das imho minimieren.
Wenn du alles der KI überlässt, musst du dich anschließend zum Debuggen erst durch den Code kämpfen.
Was soll man da glauben? Anstatt zu glauben, würde ich in dieser Sache gerne wissen, aber dafür bräuchte ich mehr Zeit...
Herzliche Grüße
Matthias Scharwies