@By65Franco, in generale il serverone NON E' il problema. Il problema e' la batteria di schede grafiche con un sacco di ram che devi usare per avere tempi di calcolo ‘umani’ e che constano come un'Audi/BMW/Mercedes!
Tanto per avere un'idea: una H100 con 80gb di ram costa 40_000 euro.
Una A100 con 40gb, 5000 euro (praticamente te la tirano dietro ;-)) ma te ne servono 2 o piu'
Io ho una scheda grafica con 16gb sul portatile che costa come ‘un portatile’ (o ‘diversi portatili’ se confronti il prezzo con un portatile di Mediaworld) e non ci riesco a fare molto. Spesso servono ALMENO 20gb.
-----
Il problema dell'azienda e' che cosa fanno di AI. La maggior parte si occupa di Machine Learning di quello ‘sempliciotto'. Poca gente si occupa di NLP/LLM perche' e' un argomento ‘tosto’: servono competenze e potenza di calcolo: non basta il neolaureato ed il computerino che usa la segretaria!
Quelli che fanno cose veramente interessanti non si trovano in Italia, e in generale, ci si puo' accedere SOLO con un PhD e TANTA, MA TANTA fortuna.
----
Resta da capire che cosa vorrebbe fare il nostro amico ;-)