Intanto cosa intendi per 'abbastanza grandi'.
l'aggeggino google coral edge e' una scatoletta USB con 4gb di ram.
in alternativa c'e'
ASUS AI Accelerator
con 8 coral edge, 32gb di ram MA suddivisa in 8 blocchi da 4, che NON E' la stessa cosa di averne 32 contigui
Il problema NON E' l'hardware MA l'hardware supportato dalla libreria che usi.
SE parli di GPU/TPU va da se che parli di neural network. E ci sono 2 principali librerie:
tensorflow che supporta ANCHE la tpu MA che non funziona sotto windows
pytorch che funziona in windows/linux/mac e di sicuro con nvidia. non so la tpu ma probabilmente si la versione su pci, no la versione usb (e' uno degli 'accelerators').
Quindi io andrei di NVIDIA, MA farei di meglio: acquisterei una 3090 con 24gb di ram invece della 3070 con SOLO 12gb.
E' la quantita di ram sulla scheda grafica il collo di bottiglia nel 90% dei casi.
Poi, ovviamente, dipende dagli algo usari: per un decision tree ti basta la ram del computer e la cpu. Basta avere TANTI thread.
comunque, una soluzione vale l'altra, basta accettarne i limiti