Prečo Intel či AMD nedokážu to, čo sľubuje slovenský Tachyum? Vysvetľuje jeho šéf (rozhovor)

Pýtali sme sa na technické podrobnosti aj stav okolo chystaného procesora Prodigy.

Zakladateľ a riaditeľ firmy Tachyum Radoslav Danilák tvrdí, že jeho firma vyvinula revolučný procesor, ktorý má byť niekoľkokrát rýchlejší než čokoľvek, čo dokážu ponúknuť konkurenti.

Ako je to možné? Danilák, inovátor pôvodom zo Slovenska, podrobne vysvetľuje:

  • V čom sa ich procesor Prodigy má odlišovať od konkurencie.
  • Ako je možné, že majú taký rýchly čip, aký nevedia zostrojiť Intel ani AMD.
  • Kedy zverejnia špecifikáciu procesora a poskytnú partnerom ďalšie detaily.
  • Či chcú predávať procesory drahšie alebo lacnejšie ako ich konkurenti.
  • Prečo má existovať viac verzií a ako sa budú líšiť.
  • Ako sa popasujú s behom doterajších aplikácií na ich vlastnej architektúre.
  • Prečo nechcú externých kontraktorov a radšej prijmú zamestnancov.
  • Či plánujú aj verzie procesora pre osobné počítače či prenosné zariadenia.

Jeden čip, viac výkonnostných verzií

Prototyp vášho procesora, presnejšie takzvaný FPGA prototyp, už máte k dispozícii niekoľko mesiacov. Poskytli ste ho na skúmanie aj vašim partnerom, či už konzorciám alebo vedcom z SAV, ktorí by si na ňom mohli niečo skúsiť?

V auguste sme demonštrovali, že nám na prototype nabehol Linux. Momentálne pracujeme na tom, aby sme mohli ukázať aplikácie. To by sa malo podariť začiatkom budúceho roka. Teraz inžinieri píšu testy, hľadajú chyby a testujú stabilitu.

Ako to funguje s partnermi? Robia si testy vášho riešenia sami, aj že je skutočne tak rýchle, ako tvrdíte? Alebo vám len dodajú kódy, ktoré chcú na prototype vyskúšať?

Je niekoľko modelov spolupráce. Máme partnera, ktorý nám poskytne kód, na ktorom skúšame výkon, aby sme vedeli, kde sa približne nachádzame. Čiže dostaneme konkrétnu aplikáciu, ktorej síce nerozumieme, ale pre zákazníka niečo odmeriame.

Druhý model je, že priebežne sa objavujú riešenia pre nové prístupy v oblasti umelej inteligencie, ktoré náš hardvér podporuje. Tu sa overuje, či dávajú správne výsledky. Majú k tomu prístup a keď budú hotoví, možno niekedy v druhom kvartáli, dúfame, že zverejnia niektoré výsledky.

Tretí model sa týka našich vnútorných benchmarkov SPECfp, ktoré nám ukazujú výkon. Púšťame si ich periodicky každý týždeň a z týchto simulácií projektujeme výsledok. Väčšinu zákazníkov zaujímajú práve tieto výsledky a ich technickí inžinieri kontrolujú, či sme použili metodológiu, ktorá je relatívne spoľahlivá.

Procesor Prodigi

Tieto výsledky zverejníte?

Výsledky sú aktuálne stále predmetom zmluvy o mlčanlivosti. Pretože aj keď sa partnerom objavia nejaké zlé výsledky, teda že sme výkonom pozadu, naši inžinieri to následne vedia odladiť. Čiže, keď sa testovanie skončí a ak budeme s publikovaním výsledkov súhlasiť, budú ich môcť zverejniť.

Je možné z výkonu prototypu v týchto simuláciách nejakým spôsobom odvodiť výkon reálneho procesora?

Je tu istý vzťah medzi komplexnosťou, respektíve veľkosťou modelu a jeho rýchlosťou. Používame architektonický model, pričom tie historicky zvyknú ponúkať približne 90-percentnú presnosť.

V praxi to funguje tak, že si stanovíte istý vnútorný cieľ, ktorý ale oproti vášmu reálnemu cieľu trochu nadsadíte. Počas testovania vás prakticky vždy niečo prekvapí, keď nejaký výkon stratíte. Ale vo výsledku by ste mali dosiahnuť reálny cieľ, ktorý ste si vytýčili. Je tam teda vždy nejaká rezerva, o ktorej sa nehovorí, ale keď vás niečo prekvapí, tak „ste stále ok“.

Čiže stále platí, že vo výsledku by ste mali ponúknuť približne 2- až 3-násobne vyšší výkon ako konkurencia?

Cieľ sme nezmenili. Ale závisí to od aplikácie. Niekde je to 2-, inde 3- a inde 4-násobok. V aplikáciách využívajúcich umelú inteligenciu ponúkame aj 4-násobok. V iných, kde ste limitovaný povedzme pamäťou, viac ako 2-násobok nedosiahnete. Čiže reálny výsledok v podstate spriemerujete.

Stále ale počítate s využitím pamätí nového štandardu DDR5? Ich príchod pre servery sa stále odďaluje.

Áno, počítame. DDR5 sa dostávajú na trh v týchto dňoch, no ide o moduly pre desktop. Pre servery ale potrebujete iné varianty, pričom kvôli pandémii sa ich dostupnosť posunula približne o 18 mesiacov. My sa aktuálne spoliehame na prototypy od našich partnerov. Keď totiž máte procesor s 3- až 4-násobne vyšším výkonom, potrebujete aj pamäte, ktoré „pretlačia“ výrazne viac dát.

V tom prípade ale aj pri porovnaní s konkurenciou počítate s výkonom, ktorý by ponúkala pri použití DDR5?

Limitujúcim faktorom u konkurencie nie sú pamäte, ale to, ako sú jej riešenia dizajnované a taktiež ako vysokú majú spotrebu. Môžeme to vidieť napríklad na nových procesoroch Intel Alder Lake, ktorých výkon pri použití DDR5 v porovnaní s DDR4 stúpol o 5 až 9 percent napriek tomu, že tie pamäte sú dvojnásobne rýchlejšie.

Náš čip má omnoho vyšší výkon, takže limitujúcim faktorom je práve pamäť. Keby v prípade Intelu bola limitujúcim faktorom pamäť, potom by získali dvojnásobný výkon.

Zvažovali ste, že by ste v prípade ďalšieho meškania dodávok použili namiesto nových DDR5 bežne dostupné DDR4?

Náš čip je rýchly a potrebuje aj rovnako rýchlejšiu pamäť. Keby sme DDR5 nahradili DDR4, náš výkon klesne na polovicu, čiže oproti konkurencii by sme boli približne 1,5- až 2-násobne rýchlejší, pretože by sme boli kompletne limitovaní pamäťou. Konkurencia momentálne nie je limitovaná pamäťou.

Počítate s tým, že budete používať ten najvyšší štandard DDR5, teda tie najrýchlejšie aké sú dostupné? Lebo najskôr by mali prísť na trh pomalšie pamäte.

Z jedného čipu máme viacero produkčných radov. Máme verziu čipu, kde zablokujeme nejaké procesory, a má teda menší výkon, takže ho môžeme predávať za nižšiu cenu.

Najvýkonnejší variant má 128 jadier. Aby tento model podal maximálny výkon, je potrebné použiť rýchlejšie pamäte DDR5-6400 a viac. Pri lacnejších a slabších variantoch procesora, kde zablokujeme niektoré jadrá, postačí povedzme aj DDR5-4800 alebo DDR5-5600.

Konkurenti sa vraj boja začať „odznova“

Mohli by ste popísať, ako ste dosiahli, že váš procesor má byť taký rýchly? V čom sa technologicky až tak líši oproti konkurencii ako je Intel, AMD či ARM?

Začneme pohľadom do minulosti. Niekde na začiatku nového milénia sa objavil prvý procesor Intel Pentium 4. Ten mal neskôr frekvenciu 3,8 a potom aj 4 GHz. Dnes, v roku 2021, teda približne po 17 rokoch je tranzistor približne 6- až 8-krát rýchlejší. A je tu teda otázka, prečo si dnes skoro nevieme kúpiť 5GHz procesor? Však tam stačí približne 25 % nárast. Keď je dnešný tranzistor 6- až 8-násobne rýchlejší, prečo nestúpame?

Pretože to nie je efektívne. A tiež pre produkciu tepla, ktorá so zvyšujúcou sa spotrebou stúpa.

Nie, tým to nie je. To je vedľajší efekt. Je pravda, že spotreba nestúpa priamo úmerne. Keď niečo beží o 50 % rýchlejšie, tak spotreba stúpla trikrát. Ale dôvodom je nasledujúca vec.

Na to, aby sa urobil obvod, tranzistory musia byť spojené vodičmi. V roku 2003, keď sme boli povedzme okolo 100 nm technológie výroby, tak ten vodič mal prierez 100 × 100 nm, čiže 10 000 nm štvorcových. Dnes už vyrábame bežne 10 nm procesom, čiže vodič má prierez 10 × 10 nm, teda 100 nm štvorcových.

A z fyziky vieme, že odpor vodiča je funkciou materiálu a prierezu. Čiže, keď sa vodič 100-krát zmenšil, má stokrát väčší odpor. A rýchlosť je funkcia odporu.

Predvediem to na absolútnych číslach. V roku 2003 pri použití spodnej kovovej vrstvy, ktorá spája tranzistory, potreboval signál pre prejdenie jedného milimetra 80 pikosekúnd.

Pri dnešných 5nm či 7nm technológiách treba na prejdenie jedného milimetra 1 200 pikosekúnd. Prečo to nie je stokrát horšie? V roku 2000 sme používali iný materiál – hliník. Dnes je to najmä meď či iné materiály, ktoré majú nižší odpor.

Aby som to uzavrel. Dôvodom, prečo rýchlosť procesorov nestúpa s rýchlosťou tranzistorov, je ten, že to spomaľujú vodiče.

Vráťme sa k otázke, čo robíte unikátne a dosahujete tým vyššie rýchlosti.

Čo robíme inak? Údaje, ktoré sa dnes spracovávajú na 5 GHz, tak 100 pikosekúnd ich počítate a 100 pikosekúnd idú medzi jednotkami. Lebo keď procesory Intel majú osem exekučných jednotiek a keď je inštrukcia sčítania dvoch čísel, tak dáta môžu ísť z hociktorej z tých ôsmich jednotiek. Čiže máte čas počítania a čas, ktorý potrebujete na to, aby ten signál prišiel k vám z jednej z tých ôsmich exekučných jednotiek. Čiže čas na počítanie je 100 pikosekúnd a čas na komunikáciu je tiež 100 pikosekúnd.

My sme vytvorili architektúru, v ktorej vieme výpočty organizovať tak, že keď dáta na sebe závisia, vieme ich počítať na rovnakej jednotke, takže nemusíme tieto dáta prenášať.

Čiže vieme počítať 100 pikosekúnd na rovnakej jednotke, respektíve rovnakom mieste čipu. Ale keby mali dáta prísť odinakadiaľ, tak my to rozdelíme na dva rovnaké, 100-pikosekundové kroky. Pri Inteli aj keď rovnaká jednotka potrebuje dáta v nasledujúcom kroku, stále je to 200 pikosekúnd, lebo pravdepodobnosť, že jedna z ôsmich jednotiek má dáta, je 12 %. Je to teda len 12 % pravdepodobnosť, že je to na rovnakom mieste.

Ale u nás je pravdepodobnosťou, že to spočítate na rovnakom mieste 92 až 93 %. A zrazu je to už zaujímavé. Ušetríte cestu, čiže v tých 92 až 93 percentách sme výrazne rýchlejší, pretože počítame lokálne, a keď potrebujeme to isté čo oni, tak sme rovnako rýchli ako oni, len potrebujeme dva kroky. Čiže sme tú činnosť rozdelili na dve elementárne funkcie, ktoré oni nedelia.

A prečo túto logiku už predtým nepoužili Intel alebo AMD? Snažili sa o to a pritom nejako zlyhali?

Je tu niekoľko vecí. Prvá vec je tá, že architektúry Intelu, AMD i ARM nie sú nové. Intel vznikol približne pred 40 rokmi, architektúra vyšla povedzme pred 30 rokmi. V tom čase problém s vodičmi nebol a vyskočil až posledných 15 rokov.

Ale môžu vyvíjať nové architektúry…

Súhlasím, môžu zmeniť inštrukčnú sadu a urobiť nekompatibilný procesor. Ale urobiť to nechcú. Majú akýsi monopol a majú celú infraštruktúru. Čiže by museli začať od začiatku, čo znamená aj problémy s konkurenciou. Teoreticky by to mohli urobiť, museli by použiť naše medzinárodné patenty, pričom takéto veľké firmy si to môžu dovoliť. Ale problém je aj niekde inde.

V roku 2000 Intel o probléme vedel, vytvoril projekt Itanium. Vtedy si povedal, že budúcnosť pôjde touto cestou, teda čiastočne tou, ktorou ideme aj my. Vytvorili čip, ale urobili ho tak, že sa veľmi ťažko programuje. Neuspel preto, lebo mainstreamový softvér na tom nebežal.

Minuli niekoľko miliárd dolárov a napokon projekt zrušili. A to je dôvod, prečo Intel ani AMD sa to neodvážia opäť urobiť. Pretože z historického hľadiska sa o to už pokúšali, ale boja sa opätovného neúspechu.

Útočiť cenou nechcú, vraj sa to neopláca

Vy ste v minulosti spomínali ďalšiu odlišnosť vášho čipu – použitie VLIW architektúry. K nej teraz mierite, že sa ju konkurencia neodváži využiť? Využívate ju napokon? (VLIW umožňuje vykonávanie niekoľko nezávislých inštrukcií súbežne bez toho, aby procesor musel vyhodnocovať časovú náväznosť jednotlivých operácií a možné kolízie, viac informácií).

Nie celkom. Ide o to, že v ďalších generáciách niektorí zákazníci potrebujú vyšší výkon v iných oblastiach, ale nechcú znova prekladať kód. To, čo sme predtým publikovali o VLIW, sme modifikovali tak, že sme odstránili potrebu stop bitu, čo nám umožní bez väčších problémov ponúknuť ďalšie generácie.

Od začiatku sme neboli VLIW, lebo v tejto architektúre je všetko staticky schedulované (plánované, pozn. red.), v danom prípade sa všetko pripraví, ale nie je možné predvídať, kedy dáta prídu z pamäte. Preto sa používal ten dynamický scheduler.

My sme začali tak, že štruktúra bola VLIW, ale spracovanie bolo viac dynamické. Teraz sme boli schopní kvôli budúcej kompatibilite VLIW aspekt vyriešiť.

Ako? A kvôli akým negatívam?

Nevýhodou by bolo to, že druhá generácia by potrebovala nový softvér. Ale napríklad softvér vládnych aplikácií je tu povedzme päť rokov a za tento čas ho nemožno meniť, teda nemožno ho prekladať na inú architektúru. Napriek tomu je ale potrebný vyšší výkon.

Takže ste VLIW úplne zrušili z dizajnu?

Áno, pracovali sme na tom, ako odstrániť VLIW a prejsť na štandardný prístup, čo sa podarilo. Takže ďalšie a výkonnejšie generácie nášho hardvéru môžu byť kompatibilné so súčasným softvérom.

Aktuálne máme zhruba 90 % schopností dynamického plánovania ako majú klasické procesory. Ak by sme chceli byť na rovnakej úrovni, stálo by to omnoho viac energie aj priestoru. Od začiatku však naše riešenie nebolo staticky schedulované, táto technológia jednoducho nedokáže poskytnúť taký výkon, ako by sme potrebovali. Od začiatku sme hovorili o hardvérovej podpore dynamického vykonávania.

Keď hovoríte o 3- násobnom výkone, prípadne väčšom – je to vždy výkon za nejakú cenu, teda „price per dollar“?

Nie, ide o absolútny výkon. Naša myšlienka je taká, že chceme za rovnakú cenu ako má konkurencia ponúknuť vyšší výkon. Lebo pri pomere výkonu a ceny sa dá s číslami krásne manipulovať. Začnete napríklad predávať bez marže a zrazu máte pomer výkonu ku cene lepší.

Keď idete na trh útočiť s cenou, tak od začiatku vás berú ako lacného, a preraziť je omnoho ťažšie. Pokiaľ ale idete zvrchu, teda výkonom, adopcia je výrazne rýchlejšia. My ideme zvrchu.

Čiže nemožno očakávať, že vaše procesory budú aj niekoľkonásobne drahšie v porovnaní s konkurenciou.

Nie, je rovnako drahý ako konkurencia, ale má 3- až 4-krát vyšší výkon.

Viete prezradiť aj nejaké rámcové ceny drahších a naopak aj tých osekaných modelov?

Ako sme povedali, ceny budú porovnateľné s konkurenčnými procesormi, ale výkon bude vyšší.

Čiže váš top model by mal stáť toľko, koľko najvýkonnejšia konkurencia?

Približne. Povedzme, že keď Intel má nejaký model za 8-tisíc, my ponúkneme náš procesor za 8-tisíc, ale bude mať 3-násobný výkon. Potom je tu konkurenčný procesor s menším počtom jadier za 3-tisíc, my ponúkneme rovnako drahý čip, ktorý bude opäť 3-krát rýchlejší. Rovnako ako konkurencia, teda budeme blokovať nejaké jadrá, aby sme dokázali ponúknuť potrebnú trhovú elasticitu.

Bude možné zablokované jadrá dodatočne odblokovať?

Nie, lebo pri výrobe je takzvaný „fuse block“. Pri výrobe môžete naprogramovať nejaké číslo, koľko jadier bude možné reálne zapnúť. Skrátka, aby sa nedal zakúpiť lacnejší model a následne používať ako drahší. To by bol vážny biznis problém.

Koľko jadier má prototyp?

Každý FPGA prototyp, ktorý prezentujeme, má dve jadrá. Doska pritom integruje štyri FPGA čipy, čiže spolu je to osem jadier.

Čiže máte už vyriešenú aj vzájomnú komunikáciu medzi jadrami? Je to stabilné a ponúkate to tak aj partnerom?

Multicore riešenie ukážeme až začiatkom budúceho roku. Doska, ktorú teraz máme, ponúka celkovo osem jadier, radič pamätí a podobne.

Niekedy v prvom kvartáli budúceho roku budeme mať systém s väčším počtom dosiek a čipov. Máme na sklade už viacero FPGA čipov a tie dosky vieme káblovo spojiť. Keď takto spojíme osem dosiek, máme spolu 64 jadier. Čiže z toho vieme vyskladať systém, ktorý bude mať toľko jadier, ako výsledný produkt. To je posledný test, kedy zistíme, či sa po zostavení veľkého systému neobjavia nejaké problémy, teda artefakty, ktoré menší systém nemá. Či niečo nie je preťažené a podobne.

Tomu rozumieme, ale v súčasnom riešení fungujú jadrá nezávisle alebo zvládajú vzájomnú spoluprácu jednotlivých jadier?

Bežia pod jedným Linuxom, ktorý môže bežať na hociktorom jadre. Nejaké problémy musíme vyriešiť, ale to budeme ukazovať až začiatkom budúceho roka na aplikáciách. Čiže najprv musíme stabilizovať základné veci, naučiť sa chodiť predtým, ako budeme bežať.

Je to ako so softvérom, ktorý na začiatku vývoja spadne každé dve až tri hodiny a na konci musí bežať bez spadnutia aspoň rok. My sme momentálne vo fáze, kedy sa predlžuje ten čas medzi tým, ako to spadne.

Už sme boli v takom stave, že Linux bežal, ale databáza by nedobehla. Tam treba nájsť ešte nejakých ďalších sto chýb a už budeme tam, kde treba. Eventuálne tam nebude žiadna chyba a vtedy to môže ísť von.

Koľko výkonu sa stráca pri preklade

Prekladač aplikácií, ktorý používate, je open-source?

Používame GCC a budúci rok budeme podporovať aj LLVM. Obidva sú open-source. Na Linux a väčšinu aplikácií používame s GCC, ale niektorí zákazníci, ako je napríklad Apple, Google a Microsoft Azure, prednostne používajú LLVM a FreeBSD – namiesto GCC a Linuxu.

Budú binárne prekladače fungovať ako Rosetta od Apple?

Máme dva. Na bežné aplikácie, ako Linux, sa použije GCC prekladač. Výsledný binárny kód je na disku ako súbor.

Ale máme ešte inú alternatívu, kde môžete zobrať Linux aplikáciu pre Intel, binárnu, bezo zmeny, a môžete ju vyskúšať na našej platforme. Zmodifikovali sme Linux. Keď spustíte x86 aplikáciu, Linux zistí, že to nie je pre náš procesor, a predtým spustí dynamický binárny translátor. To je niečo podobné ako Rosetta od Applu, kedy môžu bežať x86 aplikácie na ARMe.

To je tiež open-source riešenie?

Je to mix nášho kódu a open-source emulátora. Aktuálne pritom podporujeme tri rôzne kódy, teda x86, ARMv8 a RISC-V. Hociktoré binárky z týchto troch architektúr môžete spúšťať, akoby boli natívne.

Vy ste v rozhovore vo februári povedali, že cez binárny prekladač stratíte 20 až 30 % výkonu. Platí to ešte aj dnes?

Platí. Apple pri použití Rosette stráca len 20 %. Ten ale na to má stovky inžinierov. U nás je to zhruba 30 %.

Váš výkon teda má byť vyšší ako u konkurencie, ale treba od neho odčítať tých 30 % pre potreby binárneho prekladača?

Áno, presne tak.

Rozdiel závisí od aplikácií, alebo je konštantný?

Nie, nie je konštantný. Pri integer aplikáciách, prípadne databázach, ktoré sú veľké, ide o stratu cez 30 %. Ale napríklad pri výpočtových, ako floating point aplikáciách (s pohyblivou desatinnou čiarkou, pozn. red.), kde sú veľké cykly, sú straty menšie, povedzme tých 20 % a menej. Závisí teda od aplikácie, niekde je strata 35 %, niekde len 15 %. Priemer je medzi 20 až 30 %.

Predpokladáme, že svoje kustomizácie prekladačov chcete sprístupniť vo forme zdrojových kódov komunite vývojárov, nech ich začlenia do hlavného produktu. Takáto akceptácia môže trvať mesiace. Kedy s ňou začnete?

Áno, plánujeme ho poskytnúť. Očakávame, že to bude v druhej polovici budúceho roka. Tá akceptácia môže trvať nejaký čas. A v momente, keď je akceptovaný v základnej distribúcii, už bude všade. Ale aj pokým nie je akceptovaný, nám to nebráni samotný kód našim zákazníkom dávať.

Čiže kým sa kód pošle a akceptuje, máme nejaký „fork“ (vlastná modifikácia štandardného softvéru, pozn. red.), ktorý vieme poskytnúť zákazníkom. A v momente, keď sa to akceptuje, tak sa fork zruší a už je kód súčasťou mainstreamu.

Mimochodom, jeden z hlavných členov originálneho tímu, ktorý vyvíjal prekladač GCC, menom Jeff Law, k nám nastúpil a vie presne, kedy a ako nahrať ten kód (pre posúdenie a začlenenie do hlavného produktu, pozn. red.).

Prečo to nechcete spraviť už teraz – dať ten kód na revíziu komunite? Nechcete odhaliť svoje karty?

Tento kód ešte nespĺňa požiadavky na štandardy, stabilitu a kvalitu, čiže by to bolo kontraproduktívne. Chceme predísť sklamaniu. Musíme počkať, kým to bude dostatočne pripravené, tam ešte nie sme.

Vloženie do toho repozitára trvá koľko, mesiace?

Áno, v rámci širokej komunity môže akceptácia trvať aj pol roka. Ale to neznamená, že zákazníkom nemôžeme poskytnúť kód už skôr, aby ho zatiaľ používali.

Je to o tom, že zákazník, ktorý si zoberie náš server s naším procesorom, môže na ňom spúšťať binárky x86 aplikácií, ale keď tu chce spustiť povedzme Apache web server alebo MySQL databázu, tak ako partner môže ísť na našu webstránku a môže si prekompilovať náš fork MySQL na náš procesor. Takže nemusí to kompilovať, môže si stiahnuť binárku až pokým nebudú dostupné mainstreamovo akceptované binárky.

Tie binárky budete teda pre zákazníkov robiť vy?

My ich robíme už teraz, už bežia a testujeme ich. Na našej webstránke nájdete zoznam aplikácií, ktoré sú už preportované a otestované. Ich počet stále rastie.

Robíte to na požiadanie akéhokoľvek zákazníka?

Týka sa to len veľkých zákazníkov, pretože keby sme to mali robiť pre každého, tak nás to kompletne „zabije“.

U veľkých spoločností ako Facebook, ktoré majú vlastných softvérových inžinierov, to problém nie je. Skôr ide hlavne o špecializované aplikácie pre superpočítače. Pri takýchto zákazníkoch je dôležité, že ide o zaujímavý biznis. Pokiaľ potrebujú nejaký špecializovaný softvér, tak naši ľudia im pomôžu.

Dávate simulátor na skúšku aj zákazníkom? Aby si výkon aplikácií odmerali už v súčasnosti, na modeli reálneho procesora…

Nie. Na odmeranie budú môcť použiť FPGA alebo reálny procesor. Simulátor nedávame k dispozícii. Nemôžeme ho dať z rúk, pretože obsahuje dôležité know-how.

Podporujete emulátor iných architektúr QEMU?

Áno, podporujeme QEMU.

Pravdepodobnosť, že čip nebude chybný

Počas prezentácie na ITAPA ste už popísali základ budúceho slovenského superpočítača vrátane počtu jadier a podobne. Sú to relevantné údaje, alebo išlo len o čistý príklad?

To sú cieľové čísla. Tak by ten superpočítač mal vyzerať. Čísla ako počet jadier, frekvencia, výkon v double precision (výpočty s dvojitou presnosťou, pozn. red.) a AI, by sa ale nemali zmeniť. Malo by ísť o finálne čísla.

Jediná otázka visí nad chladením. Na obrázku sme naznačovali vodné chladenie, no záležať bude na infraštruktúre a budove, v ktorej tento superpočítač bude.

V hre je aj vzduchové chladenie, kedy by bol počet rackov vyšší, bude to približne dvakrát väčšie. Pracujeme na obidvoch alternatívach, lebo momentálne nevieme, ako tá budova bude vyzerať.

Ako to vlastne máte zmerané? Ešte nemáte finálne parametre svojho procesora, tie sa ešte stále menia. Sami ste povedali, že to ešte ladíte, čiže sú to nateraz približné údaje?

Výkon sa meria testom, ktorý sa volá Linpack. Vieme, že sa nemení počet jadier a frekvencia. Taktiež sa nemení počet dvoch vektorových floating-point (výpočty s pohyblivou desatinnou čiarkou, pozn. red.) a maticových exekučných jednotiek na procesorové jadro.

Jediný rozdiel spočíva v efektivite kompilátora a nejakom úzkom hrdle v architektúre. Tie modely zvyknú ponúkať presnosť okolo 90 percent. Povedzme, že keby bol ten reálny výkon o 10 % nižší, máme možnosť zvýšiť frekvenciu atď.

Čiže tie prezentované čísla by sme chceli dosiahnuť a zatiaľ to vyzerá tak, že sú dosiahnuteľné.

Viac na linku nižšie.

Zdroj: https://zive.aktuality.sk/clanok/4p291ly/preco-intel-ci-amd-nedokazu-to-co-slubuje-slovensky-tachyum-vysvetluje-jeho-sef-rozhovor/

Radoslav Danilák je pôvodom slovenský odborník a vynálezca, spoluzakladateľ spoločnosti Tachyum. V minulosti založil, viedol a neskôr úspešne predal firmy SandForce, produkujúcu čipsety pre SSD disky, a Skyera s úložnými systémami pre vládne a armádne využitie.

Leave a Reply

Vaša e-mailová adresa nebude zverejnená. Vyžadované polia sú označené *