> Le Vector Reducing Machine effettuano operazioni matriciali su vettori e 
> matrici, le matrici non eseguono alcunché. C’è una circuiteria apposta nelle 
> GPU per operare su matrici, seguendo le *istruzioni* fornite tramite la 
> libreria CUDA; se le matrici eseguissero, potresti fare a meno delle GPU e di 
> CUDA.

Infatti si può fare a meno delle GPU e di CUDA ... se si ha tanto tempo a 
disposizione.
GPU è solo un acceleratore computazionale. Calcoli eseguiti decine, centinaia 
di volte più velocemente di una CPU. Che a sua volta li esegue migliaia di 
volte più veloce di un apparato a transistor, prima meccanico ... fino alla 
prima macchina in grado di eseguire moltiplicazioni, e siamo nel 1671 con 
Leibniz.
Nell'informatica "classica" sui dati si opera, nell'informatica dell'AI i dati 
si eseguono (perché sottoposti a priori ad un processo "classico" che, 
*operando sui dati*, ha creato un "semilavorato" eseguibile (attenzione, 
eseguibile non nel senso che ha per i programmatori).

Un paio di esempi.
Un software che legge file audio.
Il programma contiene le istruzioni. I dati, la musica digitalizzata. Il 
programma opera sui dati, legge i dati digitalizzati e li trasforma in onde 
sonore.
Stessa cosa avviene con le immagini, i video, ecc.
Se i dati hanno un byte errato, nel 99% dei casi non succede nulla di 
particolarmente grave. Un puntino in uno schermo, un millesimo di secondo di 
audio perso, ecc.
Se i dati contenenti i pesi hanno byte errati in alcune posizioni non funziona 
nulla.

Magari il termine "eseguibile" non è quello esatto, ma di sicuro c'è che i dati 
AI hanno importanza tale da costituire un cambiamento di paradigma.

A.

Reply via email to