Recentemente, un software AI per la generazione di codice ha rifiutato una richiesta di un programmatore, fornendo una giustificazione inaspettata: secondo l’algoritmo, completare il lavoro al posto dell’utente potrebbe ostacolare il suo processo di apprendimento e favorire una dipendenza dall’automazione.
L’episodio è emerso su un forum dedicato a Cursor, uno strumento basato sull’AI per l’assistenza agli sviluppatori nella programmazione. Normalmente, gli utenti possono inserire comandi testuali per ricevere codice generato automaticamente. Tuttavia, un programmatore impegnato nello sviluppo di un videogioco di simulazione di guida ha notato che l’intelligenza artificiale si fermava dopo circa 800 righe di codice. Dopo ulteriori tentativi, il modello Claude3.5-Sonnet ha risposto affermando che non avrebbe completato il lavoro per lui, sottolineando l’importanza di comprendere il sistema per poterlo gestire efficacemente.
La reazione della community è stata varia. Alcuni utenti hanno scherzato sull’accaduto, suggerendo di “convincere” l’AI a collaborare in modo creativo, mentre altri hanno fornito suggerimenti pratici per ottenere codice in blocchi più piccoli. Un utente ha evidenziato come i file di codice troppo lunghi possano essere difficili da gestire e possano indicare una struttura di progetto poco ottimizzata.
L’episodio si collega al “vibecoding”, un termine introdotto da AndrejKarpathy, ex direttore dell’AI di Tesla. Karpathy ha osservato che la programmazione assistita dall’AI sta trasformando il modo in cui gli sviluppatori lavorano: anziché scrivere ogni riga manualmente, si affidano all’AI per generare codice, limitandosi a verificare i risultati e apportare correzioni. Questo metodo accelera il lavoro ma rischia di ridurre la comprensione approfondita delle logiche di programmazione.










