OpenAi lancia CriticGpt, un software di correzione

Un nuovo modello di Intelligenza artificiale che individua gli errori nel codice generato dal chatbot. Per queste ragioni, i ricercatori di OpenAi hanno lanciato CriticGpt. In pratica, ChatGpt diventa anche controllore di sé stesso. Il fine è quello di migliorare il processo di controllo dei revisori umani per rendere più accurati i risultati del modello linguistico. Come spiegato dal documento intitolato Llm Critics Help Catch Llm Bugs, OpenAi ha creato CriticGpt per fungere da assistente ai formatori umani che esaminano il codice di programmazione generato da ChatGpt. CriticGpt si basa su Gpt-4, analizza il codice e segnala potenziali errori. I ricercatori lo hanno addestrato su un set di dati inserendo dei bug intenzionalmente e insegnando così al sistema a riconoscere e segnalare vari errori di codifica. Hanno scoperto che le critiche di CriticGpt erano preferite rispetto alle critiche umane nel 63 per cento dei casi. Questo processo ha consentito al modello di apprendere come identificare e criticare vari tipi di errori di codifica. Nonostante i risultati, come tutti i modelli di Intelligenza artificiale, CriticGpt presenta dei limiti, fa notare la testata specializzata Ars Technica. Il modello è stato infatti addestrato su risposte di ChatGpt relativamente brevi che potrebbero non bastare completamente alla valutazione di compiti più lunghi e complessi su cui i futuri sistemi di Intelligenza artificiale dovranno esercitarsi. Per rendere ancora più agevole l’individuazione di eventuali errori, i ricercatori hanno anche creato una nuova tecnica chiamata Force Sampling Beam Search (Fsbs). Questa aiuta il modello a scrivere revisioni più dettagliate del codice esaminato. Sebbene i risultati finora ottenuti da questo strumento siano positivi, il modello Intelligenza artificiale in questione presenta ancora dei limiti evidenti.

Aggiornato il 28 giugno 2024 alle ore 16:19