

La risposta è facile: no.
Chi realizza sistemi per usi seriamente pensati li addestra con dati selezionati: se i dati di addestramento sono filtrati a monte, il problema dell’avvelenamento non si pone.
Gli LLM a cui si riferisce l’articolo sono quelli che rastrellano indiscriminatamente la rete, LLM che sono tutto fuorchè intelligenti.
E uso di proposito LLM al posto della sigla di due lettere per rendere evidente che non sono intelligemti: se lo fossero, saprebbero scartare le informazioni sbagliate…



La fiat/audii/mercedes produce macchine con le sospensioni fallate e chi ne subisce le conseguenze si lamenta dei dossi di rallentamento che proteggono i pedoni dai guidatori incoscienti.
Empatizzo con chi patisce i difetti (noti e ignorati) degli LLM, ma la colpa non è dei dossi e toglierli non è la soluzione.