Confesso: oggi ho usato un #LLM al lavoro per generare uno script python.
È qualcosa che avrei potuto fare io, ma mi avrebbe preso qualche ora. Così ci ho impiegato meno tempo. Ho definito passo a passo cosa volevo, e il codice generato seguiva il copione, ordinato e commentato.
Però c’erano un paio di errori che l’LLM non è riuscito a correggere, nonostante dicesse che avevo ragione e mi chiedesse scusa. Infatti aveva un approccio accondiscendente insopportabile, fatto di numerose leccate di culo. Non potrebbero comportarsi come HAL9000 o il computer dell’Enterprise?
Insomma tutto sommato un’esperienza positiva, ma perché avevo le idee chiare e conosco il linguaggio. Altrimenti sarebbe stato un disastro
@mariosiniscalchi
Bello, dovrei pensarci per qualcosa del genere. Ma almeno avevi un’idea dell’architettura? Come capisci se qualcosa è sbagliato?@lgsp @aitech
Non avevo idea di nulla.
mai sentito parlare di YALM.
HA ha un tool per verificare una configurazione, ma la cosa più semplice è farla controllare alla AI.
poi non sempre va nella direzione giusta…
però ora ho un allarme che manda un msg a una chat dove posso inserire chiunque.
Lo attivo tramite “evento” su calendario…impostati orari settimanali di assenza
lgsp@social.tchncs.de ha detto in Confesso: oggi ho usato un #LLM al lavoro per generare uno script python.: > Infatti aveva un approccio accondiscendente insopportabile, fatto di numerose leccate di culo. Non potrebbero comportarsi come HAL9000 o il computer dell’Enterprise?
Mi capita spesso di usarli per trovare errori o per qualche codice e la cosa decisamente più insopportabile è il loro tono e la loro accondiscenza! È tutto un “ma sei un genio!” “complimenti per l’idea, è davvero stupenda” “sono proprio uno stupido a non averci pensato” e via cosi.
Definirlo insopportabile è sicuramente poco 😅