L’intelligenza artificiale alimentata dai dati generati dall’intelligenza artificiale potrebbe “collassare”

I modelli di intelligenza artificiale (AI) falliscono se addestrati su dati generati dall’intelligenza artificiale, affermano gli scienziati su Nature. Sottolineano inoltre la necessità di utilizzare dati affidabili per addestrare i modelli di intelligenza artificiale.

L’utilizzo di set di dati generati dall’intelligenza artificiale per addestrare le future generazioni di modelli di machine learning potrebbe inquinarne i risultati, un concetto noto come “collasso del modello”. La ricerca mostra che nel corso della “vita” di diverse generazioni di modelli di intelligenza artificiale, il contenuto originale viene sostituito da sciocchezze irrilevanti.

Gli strumenti di intelligenza artificiale generativa, come i modelli linguistici di grandi dimensioni (LLM), sono diventati sempre più popolari e vengono addestrati principalmente utilizzando dati generati dall’uomo. Tuttavia, affermano i ricercatori, man mano che questi modelli di intelligenza artificiale si diffondono su Internet, il contenuto generato dal computer potrebbe essere utilizzato per addestrare altri modelli di intelligenza artificiale – o se stessi – in quello che è noto come un ciclo ricorsivo.

Ilya Shumilov dell’Università di Oxford nel Regno Unito e i suoi colleghi hanno utilizzato modelli matematici per mostrare come i modelli di intelligenza artificiale possono fallire. Gli autori hanno dimostrato che l’intelligenza artificiale può omettere alcuni risultati (ad esempio, frammenti di testo meno comuni) dai dati di addestramento, con il risultato che l’addestramento viene eseguito solo su una parte del set di dati.

I ricercatori hanno anche esaminato il modo in cui i modelli di intelligenza artificiale hanno risposto a un set di dati di addestramento generato principalmente dall’intelligenza artificiale. Hanno scoperto che alimentare il modello con dati generati dall’intelligenza artificiale deteriora la capacità di apprendimento delle generazioni successive, causando infine il fallimento del modello. Quasi tutti i modelli linguistici frequentemente addestrati testati dai ricercatori hanno mostrato una tendenza a ripetere le frasi. I ricercatori hanno fornito l’esempio di un test in cui è stato utilizzato per la formazione un testo sull’architettura medievale. Si scopre che nella generazione 9 l’intelligenza artificiale ha fornito informazioni sulle lepri invece che sull’architettura.

READ  un test. Riesci a identificare tutti i re della Polonia? Il campione della storia otterrà il 100%.

Gli autori dello studio sottolineano che il fallimento del modello è inevitabile se i set di dati creati dalle generazioni precedenti vengono utilizzati per l’addestramento dell’IA. Secondo loro, non è impossibile addestrare con successo l’intelligenza artificiale sui propri risultati, ma il filtraggio dei dati risultanti dovrebbe essere preso sul serio. Allo stesso tempo, secondo gli scienziati, le aziende tecnologiche che utilizzeranno solo contenuti generati dall’uomo per addestrare l’intelligenza artificiale otterranno un vantaggio rispetto ai concorrenti che adotteranno una strategia diversa.

maggiori informazioni Nel materiale originale. (porta)

Urszula Kaczorowska

Regno Unito / Lo farò /

La Fondazione PAP consente la ristampa gratuita degli articoli dal sito web Nauka w Polsce, a condizione che ci informiate via e-mail una volta al mese sull’utilizzo del sito web e forniate la fonte dell’articolo. Sui portali e sui siti web si prega di includere il seguente link: Fonte: Naukawpolsce.pl, e nelle riviste, spiegazioni: Fonte: Nauka w Polsce – Naukawpolsce.pl. Il permesso di cui sopra non si applica a: informazioni della categoria “Mondo” ed eventuali fotografie e materiale video.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Torna in alto