Amazon mizează pe Texas și pe cipurile personalizate Trainium pentru a concura cu Nvidia în cursa IA
Amazon mizează pe Texas și pe cipurile personalizate Trainium pentru a concura cu Nvidia în cursa IADe la Annapurna Labs, sediul său din Austin, Amazon intensifică producția celor mai recente procesoare Trainium, cu scopul de a reduce costurile IA cu până la 40% și de a reduce dependența de plăcile grafice dominante ale Nvidia.
FOTO ARHIVĂ: Procesoare Amazon de inteligență artificială sunt prezentate într-un laborator Amazon din Austin, Texas, SUA. / Reuters
27 Februarie 2026

Titanul tehnologic Amazon încearcă să iasă din umbra Nvidia cu cipuri personalizate „Trainium” proiectate special pentru învățarea automată, în timp ce miliarde de dolari sunt injectați în inteligența artificială (IA).

Filiala Amazon, Annapurna Labs, fondată în Israel și achiziționată de Amazon în 2015, testa durabilitatea celei mai recente generații de procesoare Trainium la facilitățile sale din Austin, Texas, în timpul unei vizite recente a AFP.

Texas devine un fel de El Dorado pentru lumea tech din SUA, atrăgând investiții prin energie ieftină, reglementări relaxate, stimulente fiscale și terenuri relativ accesibile pentru centre de date de mari dimensiuni.

Într-un vuiet asurzitor, UltraServere pline cu 144 de cipuri acceleratoare IA, Trainium erau supuse unor teste la Annapurna, într-o verificare de rutină înainte de livrare.

După ani în care s-a bazat pe furnizori pentru cipuri, unitatea de cloud computing Amazon Web Services (AWS) a gigantului de e‑comerț început să își proiecteze propriile cipuri, achiziționând startup‑ul israelian Annapurna Labs în 2015.

Primele au venit cipurile Graviton și Inferentia în 2018, primul pentru calcul cloud general și al doilea pentru alimentarea modelelor de inteligență artificială.

Primul Trainium a debutat în 2020, urmat de o a doua generație care a promis un salt semnificativ de performanță.

Cipurile Trainium 3 puse în funcțiune în decembrie sunt prezentate ca dublând capabilitățile celei de-a doua generații, deși sunt mai mici decât un card de credit.

Kristopher King, șeful laboratorului Annapurna din Austin, susține că cele mai recente cipuri Trainium pot reduce costul dezvoltării și rulării modelelor generative de IA cu până la 40% în comparație cu utilizarea unităților de procesare grafică (GPU) considerate acum „standardul de aur” pentru IA.

Eșecul nu este o opțiune

Pe lângă stabilirea unor prețuri competitive pentru cipurile Trainium, AWS intenționează să transforme fiabilitatea într-un punct de vânzare, deoarece centrele de date trebuie să funcționeze continuu pe perioade lungi.

Dezvoltarea IA necesită sute de mii de cipuri care funcționează simultan timp de săptămâni, potrivit șefului de inginerie de la Annapurna, Mark Carroll.

Te-ar putea interesa șiTRT Română - Un viitor ca în filmul Terminator: NVIDIA lansează noul său cip pentru robotică

„Dacă apare o defectare sau indisponibilitate în această fază, trebuie să te întorci sau chiar să reîncepi de la zero”, a spus Carroll.

Spre deosebire de alți jucători importanți în procesoare pentru IA, AWS nu își vinde cipurile.

În schimb, AWS folosește Trainium exclusiv în propriile sale centre de date, oferind clienților capacități de calcul în regim de închiriere.

AWS a optat să își personalizeze cipurile pentru a le armoniza cu software‑ul său, în special cu platforma Bedrock, care le permite clienților să aleagă dintre o gamă largă de modele de inteligență artificială concurente, inclusiv Anthropic, OpenAI și alți rivali, potrivit laboratorului.

Trainium este poziționat ca o opțiune de reducere a costurilor pe o piață a IA considerată „constrânsă din punct de vedere al ofertei”, din cauza apetitului insațiabil pentru GPU‑uri de înaltă performanță de la liderul de piață Nvidia și de la rivali precum AMD.

Deși Trainium 3 are doar câteva luni, Annapurna proiectează deja o nouă generație a cipului.

O dată de lansare pentru Trainium 4 nu a fost încă dezvăluită, dar Carroll spune că acesta va avea de șase ori performanța de procesare a predecesorului său.

Pe măsură ce Google, Microsoft, OpenAI, Meta și alți rivali din tehnologie concurează să lanseze modele de IA din ce în ce mai bune, presiunea este intensă ca cipurile să facă tehnologia mai inteligentă, mai rapidă, mai ieftină și cu un consum redus de energie.

Nvidia a început să producă unitatea sa de procesare grafică Rubin grapics mai puțin de un an după lansarea fostului vârf de gamă Blackwell.

Prima versiune a Trainium a durat aproximativ 18 luni pentru a fi creată, în timp ce a doua generație a fost pregătită în nouă luni, iar Annapurna „încearcă să mențină acest ritm”, a spus Carroll.