A năvălit peste mine InfiniBand

Vin la lucru de dimineață și primesc o noutate trăsnet, au fost aduse echipamente InfiniBand pentru testarea și de văzut care este perspectiva lor pentru implimentarea în production pentru Data Centru de lucru.
Desigur mai întîi în sala R&D, am găsit repede și lor în racktower pentru a băga un Switch Voltaire/Mellanox 4036 și 4 cartele MT26428 ConnectX2 VPI.

Cunoștiam tehnologia InfiniBand dar nu în detalia doar așa că exestă 🙂
Mulțumesc de cusrsuri gratuite și rapide pe care le poți trece într-o zi dacă dorești să le înveți și le trci în 2 ore doar dacă treci cu echiul peste acest curs. La adresa http://academy.mellanox.com/en/course/infiniband-essentials/ se poate de văzut toate cursurile disponibile și care sunt gratuite.

Course overview
InfiniBand Essentials

Acest curs gratuit a fost destul pentru a percepe InfiniBand și ma ajutat să percep cofigurarea a switch-ului.

După ce am făcut acest curs am observat că atît GlusterFS cît și BeeGFS susțin în lucru infiniband și implicit folosesc mecanisul RDMA doar că va fi necesar de configurat IP over Infiniband (IPoIB) https://tools.ietf.org/html/rfc4391

Sunt foarte impresionat de modul diferit de lucru a InfiniBand aici cu adevărat se poate de spus că au plecat departe de OSI și cele 7 nivele. Plusul major este anume RDMA  Remote Direct Memory Access https://en.wikipedia.org/wiki/Remote_direct_memory_access    care permite accesarea directă a memoriei fără careva bufferizare undeva pe layer din OSI 🙂

Există și așa tehnologii ca exemplu RDMA over Converged Ethernet (RoCE) care folosește în loc de InfiniBand anume Ethernet, dar aici trebuie de specificat că un un Switch de tip InfiniBand exemplu SB7800 Series   http://www.mellanox.com/page/products_dyn?product_family=225&mtag=sb7800 pierde doar 90ns switch latency pe cînd cele mai bine switch de tip Ethernet poate să consume de la 200 la 300 ns pentru aceiași operațiune, mai multe rezultate clare găsiți în raportul https://www.mellanox.com/related-docs/products/Tolly-215111-Mellanox-SwitchX-2_Performance.pdf Îmi pare foarte important anume latența scăzută pentru RDMA.

Testările o să mai continui, dar după o lună deja pot spune că sunt impresionat de performanță cu atît mai multe că există destul de mult software care deja bine funcționază cu InfiniBand.

Scopul curent este de a testa lucru în switch block infiniband pentru conectarea Openstack Compute spre GlusterFS Storage Pool.

About 3XTron

Bună tuturor, pe parcursul vieții citesc, cunosc, experimentez, cercetez, analizez și încerc să mă dezvolt.
Tagged , , , , , , , , , , . Bookmark the permalink.

Leave a Reply