• pgo_lemmy@feddit.it
      link
      fedilink
      Italiano
      arrow-up
      2
      ·
      26 days ago

      La risposta è facile: no.

      Chi realizza sistemi per usi seriamente pensati li addestra con dati selezionati: se i dati di addestramento sono filtrati a monte, il problema dell’avvelenamento non si pone.

      Gli LLM a cui si riferisce l’articolo sono quelli che rastrellano indiscriminatamente la rete, LLM che sono tutto fuorchè intelligenti.

      E uso di proposito LLM al posto della sigla di due lettere per rendere evidente che non sono intelligemti: se lo fossero, saprebbero scartare le informazioni sbagliate…

      • pgo_lemmy@feddit.it
        link
        fedilink
        Italiano
        arrow-up
        1
        ·
        edit-2
        25 days ago

        La fiat/audii/mercedes produce macchine con le sospensioni fallate e chi ne subisce le conseguenze si lamenta dei dossi di rallentamento che proteggono i pedoni dai guidatori incoscienti.

        Empatizzo con chi patisce i difetti (noti e ignorati) degli LLM, ma la colpa non è dei dossi e toglierli non è la soluzione.

    • informapirata@poliverso.orgOP
      link
      fedilink
      arrow-up
      1
      ·
      26 days ago

      @andre123 qui però stiamo parlando soprattutto di LLM e altri modelli “content creator”, non di sistemi di intelligenza artificiale tout court, come quelli di guida autonoma, sistmi di simulazione, analisi testuale, etc