Mela sta sfruttando chip AI personalizzati da Amazzonia per i servizi legati alla ricerca e sta valutando il loro possibile utilizzo per pre-addestrare modelli come quelli sfruttati da L'intelligenza di Apple.
Lo riporta la CNBC, spiegando che è stata la stessa Apple a segnalarlo nell'ambito dell'annuale AWS Reinvent (evento che si svolgerà dal 2 al 6 dicembre), una conferenza incentrata sugli ultimi progressi nelle tecnologie AWS, tra cui l'intelligenza artificiale generativa, le attività cloud e altro ancora.
Benoit Dupin, direttore senior di Apple responsabile dell'apprendimento automatico e dell'intelligenza artificiale, è salito sul palco per riferire come Cupertino utilizza i servizi di cloud computing, in un raro esempio di ruoli invertiti (con Apple che appare a un evento come cliente di un fornitore).
“Abbiamo una connessione forte, l'infrastruttura è affidabile e in grado di servire i nostri clienti in tutto il mondo”, ha riferito Dupin.
La CNBC sottolinea che la presenza di Apple alla conferenza di Amazon rappresenta un forte sostegno ai servizi cloud tra cui Microsoft Azure e Google Cloud, sfruttati anche da Cupertino.
Benoit ha osservato che Apple utilizza AWS da decenni per servizi come Siri, Mappe e Apple Music; utilizza i chip Trainio E Gravitone ad esempio per i servizi di ricerca, sottolineando che questi hanno portato ad un guadagno di efficienza del 40%.
Come accennato, Benoit ha riferito che Apple sta valutando l'utilizzo dei chip Trainium2 pre-addestrare i propri modelli di intelligenza artificiale proprietari, e quindi questi sono convenienti non solo in termini di rapporto costo-efficacia per l'inferenza di modelli di intelligenza artificiale e machine learning (il processo mediante il quale un modello addestrato prende decisioni sulla base di nuovi dati) rispetto ai chip Intel E AMDma possono anche essere utilizzati per sviluppare nuova intelligenza artificiale. Nell'ambito dell'evento, Amazon ha anche annunciato che i suoi Trainium2 sono disponibili per il noleggio.
Apple ha già sfruttato il L'unità di elaborazione del tensore cloud (TPU) di Google indicato come specificatamente progettato per ottimizzare prestazioni e costi per tutti i carichi di lavoro AI, dal training all'inferenza.


L’addestramento della maggior parte dell’intelligenza artificiale utilizza processori costosi NVIDIA; I fornitori di servizi cloud e varie startup stanno facendo a gara per offrire alternative a basso costo, esplorando approcci diversi che potrebbero portare a un’elaborazione più efficiente. Se Apple ha valutato questo approccio, significa che rivolgersi ad aziende diverse da NVIDIA è possibile.
Tutte le notizie che parlano di Intelligenza Artificiale sono disponibili da questa pagina di macitynet.




