JanWiersma.com

Nu echt modulair…

Een datacenter bouwen als Lego blokjes… dat lijkt de utopie in de modulaire datacenter wereld. In deze wereld is het datacenter gebouwd uit verschillende blokjes met de volgende karakteristieken: modularity

  • De blokjes zijn beschikbaar in verschillende soorten en maten
  • De blokjes zijn snel leverbaar, hier door is het datacenter snel uit te bereiden (+/- 6 weken, JIT levering)
  • Bij de keuze van het blokje, kan men kiezen uit TIER 1 t/m 4 voor beschikbaarheid. Hier door kan men beschikbaarheidsniveaus mixen.
  • Bij de keuze van het blokje, kan men kiezen uit diverse PUE niveaus.
  • Bij de keuze van het blokje, kan men kiezen uit diverse warmte belastingen per rack (kW/rack).
  • Bij de keuze van het blokje, kan men keizen uit diverse koeloplossingen (lucht (van buiten), water)
  • Bij de keuze van het blokje, kan men kiezen uit huur, lease of koop van het blokje.

Hier mee kan men dus op het juiste moment, het meest geschikte blokje inzetten tegen de juiste financiële voorwaarde. Deze modulariteit is niet automatisch een container datacenter. Diverse ‘niet-container-leveranciers’ leveren ook een modulair gebouwde oplossing.

Deze utopie is al langer de wens van menig datacenter eigenaar. Uiteraard proberen diverse leveranciers in te spelen op deze wens. Modulariteit is hier mee tot een marketing term verworden, die te pas en te onpas vermeld word bij diverse datacenter oplossingen.

Zoals Lex Coors (Interxion), terecht, zich beklaagd in DatacenterWorks:

Tegenwoordig lijkt het wel alsof alle datacenters modulair worden gebouwd. Helaas verstaat niet iedereen hetzelfde onder modulair bouwen, zo stelt Lex Coors, vicepresident datacenter technologie en engineering group van Interxion. “Er wordt veel gesproken over modulair bouwen maar uiteindelijk zie ik alleen de fasering terug en niet de modulaire benadering van de infrastructuur.”

Datacenter Pulse toetst regelmatig binnen de 1500+ leden wat hun top 10 grootste uitdagingen zijn op datacenter gebied. Op nummer 9 vinden we daar ook modulariteit:

More Products with Modularity

Goal: Enable pro-active, simple expansion or contraction of datacenter capacity without risk or reduction of design availabilities.

  • Update: Not seeing any significant increase in modular product offerings or end user implementations
  • Both vendors and end users need to elevate the discussions to implement current modular solutions to enable future modular products.

De frustratie van Lex word dus gedeeld door andere datacenter eigenaren. Datacenter Pulse komt nu te hulp met de Modulair RFP.

Continue with reading

Share

Overheidsinnovatie bij NASA

Met lichte afgunst en jalousie volg ik al enige tijd het NASA Nebula project voor Cloud computing.

Nebula is een open-source cloud computing project die een alternatief moet bieden voor de kostbare constructie van datacentra en IT infrastructuur bij de NASA. Nebula levert high performance en direct beschikbare rekenkracht, opslag en netwerk faciliteiten. Dit alles op basis van enkele bestaande en nieuw ontwikkelde open-source componenten.

nebula_day

NASA heeft goed begrepen welke ingrediënten er zo al nodig zijn om deze flexibele infrastructuur en platform te kunnen bieden:

  • Het fysieke datacenter voor deze oplossing is modulair gebouwd. Hierbij is voor een container gekozen.
  • De onderliggende hardware bestaat voornamelijk uit het Cisco UCS systeem, welke de rekenkracht en netwerk omgeving dynamisch levert.

Een container bevat ongeveer 15.000 CPU cores of 15 petabyte aan data en het geheel is hierbij tot 50% energie zuiniger dan de bestaande IT omgevingen.

De lagen die boven op de hardware zijn gebouwd, bestaan voornamelijk uit open-source producten. Deze zijn voor een deel uit de markt gehaald en voor een deel zelf ontwikkeld. Voor al op dit laatste vlak word het interessant voor een overheids organisatie zoals NASA;

  • Het gene ontwikkeld is heeft een hoog innovatief karakter.
  • De ontwikkelde componenten zijn open-source en worden derhalve ook gepubliceerd en beschikbaar gesteld aan de gemeenschap.
  • Een deel van de componenten zijn gedoneerd aan de OpenStack (het open-source, open-standaarden Cloud project)
  • Men gebruikt voornamelijk open standaarden.

Het bovenstaande zijn allemaal karakteristieken die meestal slecht passen bij de bureaucratische en behoudende mentaliteit van overheidsorganisaties.

Ray O’Brien (Nebula Program Manager) schrijft daar over in zijn blog:

Innovation doesn’t always come easily… especially in a large federal government agency. True, rules and regulations are needed to manage behemoth organizations and protect taxpayers, but this always has to be balanced so that creativity and innovation are nurtured, not stifled. The senior NASA managers responsible for the oversight of Nebula understand this key point.

How does Nebula do it? The answer is that Nebula functions more like a tech start-up and less like a legacy organization. Critical to making it work: a phenomenal team of talented professionals and the effective use of modern day communications.

Ik mag een groot deel van mijn werkzame leven al door brengen in overheidsorganisaties.. dus ik herken waar hij het over heeft. Het succes van dit project (onderschreven door de landelijk CIO Vivek Kundra) dwingt dan ook groot respect af. De ontwikkelde Nebula omgeving is ook nog eens de motor onder een groot deel van de Apps.gov omgeving voor diverse overheidsinstellingen.

Een project dat innovatie combineert met groen, flexibel, cloud, open-source, open-standaarden, dynamische infrastructuur en een modulair datacenter… binnen de overheid ?!? Ik meld me meteen aan !

Share

Het datacenter naar zee

In 2008 kondigde International Data Security (IDS) aan om schepen in te zetten als datacenter locaties. Deze week komen ze met het bericht dat ze een Proof Of Concept (POC) gaan uitvoeren.

De ideeën voor een datacenter op zee zijn niet nieuw. Zeker gezien het patent wat Google hier op aanvroeg in 2007. (zie plaatje).

Hierbij word vooral ingezet op het gebruik van zee water; als koelwater voor de IT systemen en voor het genereren van elektra via golfslag.

Nu hebben wij als Nederlanders al een hele lange relatie met de zee en het bedenken van creatief gebruik van de zee. Voor elektra opwekking zijn dus diverse (Nederlandse) oplossingen beschikbaar.

In 2006 testen de TU Delft de aandrijving van een citruspers op het strand van Scheveningen, onder het motto ‘Energie uit golven’

De firma Ecofys werkt aan hun Wave Rotor concept, waarbij de kracht van de zee word om gezet in energie.

Ook in het buitenland word er al enige jaren gewerkt aan energie opwekking uit zee:

Tijdens de conferentie Clean Energy Power in januari 2006 in Berlijn was één van de themabijeenkomsten speciaal gewijd aan het opwekken van energie uit de zee. Het was indrukwekkend om te zien met hoeveel inzet of ‘Begeisterung’ Duitse ingenieurs en universiteiten werken aan het onderzoek naar de mogelijkheden om energie op te wekken uit zee: in vrijwel alle projecten over de wereld hebben Duitse ingenieurs op de een of ander manier wel een aandeel.

(Bron: Verslag conferentie Clean Energy Power in januari 2006 in Berlijn – http://www.twanetwerk.nl/default.ashx?DocumentId=5967)

De vraag is hoe wetgeving zal om gaan met ‘het datacenter op zee’. De discussie rond de locatie van data is aardig aangezwengeld door de Cloud ontwikkelingen, en deze oplossing maakt het nog interessanter. Op zo’n 22km uit de kust eindigt het territoriale water en is het VN-zeerechtverdrag van toepassing.

Meer:

Share

Chill Off 3 aan de horizon

Het heeft even geduurd voordat DatacenterPulse (DCP) met een update rond de Chill Off testen konden komen. Dit heeft te maken met wat tegenslag tijdens het testen, maar vooral met de ontzettende hoeveelheid aan onderzoeks data, die het opgeleverd heeft. Deze moet, uiteraard, nauwkeurig onderzocht en getoetst worden voordat men met resultaten komt.

Op dit moment worden de resultaten van de Chill Off 2 aan diverse externe specialisten voorgelegd; technische DCP leden die hun sporen verdient hebben in de datacenter wereld en in hun huidige functie verantwoordelijk zijn voor de grootste datacentra op de wereld.

Tijdens het SVLG Data Center Energy Efficiency Summit in oktober van dit jaar zullen de resultaten gepresenteerd worden.

De DCP Board is zich vast aan het voorbereiden op het vervolg: de Chill Off 3.

Tot nu toe hebben we ons gefocust op de efficiëntie van koelsystemen. De datacenter koelsystemen zijn er om de IT systemen in het datacenter te kunnen laten functioneren. De vraag is echter: wat kunnen de IT systemen eigenlijk hebben en wat kunnen we daar nog aan verbeteren.

Denk hierbij aan de Datacenter Tent test van Microsoft;

Inside the tent, we had five HP DL585s running Sandra from November 2007 to June 2008 and we had ZERO failures or 100% uptime.

In the meantime, there have been a few anecdotal incidents:

  • Water dripped from the tent onto the rack. The server continued to run without incident.
  • A windstorm blew a section of the fence onto the rack. Again, the servers continued to run.
  • An itinerant leaf was sucked onto the server fascia. The server still ran without incident (see picture).

Maar ook aan het recent oprekken van de temperatuur in het datacentrum door ASHRAE;

Expansion of the recommended data center temperature range, which should be taken at the server inlets. They should now be 18 degrees Celsius to 27 degrees (64.4 degrees Fahrenheit to 80.6 degrees), expanded from 20 degrees to 25 degrees (68 degrees Fahrenheit to 77 degrees).

De IT systemen blijken dus best wel wat te kunnen hebben… tijd dus om ze aan de tand te voelen.

Voor de Chill Off 3 zullen server leveranciers gevraagd worden om hun beste systeem te leveren met de volgende parameters:

– DCP stelt de inlet temperatuur vast (verwacht voor lucht rond de 40C)

– DCP levert benchmark software (o.a. eBay query’s en mogelijk SPECxxx)

– DCP test met luchtkoeling en waterkoeling (ook water direct op de chip) in een datacenter omgeving.

Resultaten zullen getoetst worden op basis van het aantal Query’s per Watt dat de machine kan verwerken bij de door ons aangegeven omgevingscondities. De server leveranciers worden hiermee gedwongen om te kijken hoe ver ze kunnen gaan met hun systemen.

Tot nu toe heeft o.a. Intel al toegestemd met medewerking voor deze testen.

Er moeten nog een hoop details uitgewerkt worden voordat we kunnen starten met deze testen, maar deze tweaker/overklokker mentaliteit zie ik natuurlijk helemaal zitten 🙂

Share

Microsoft’s holistische blik…

Microsoft heeft een nieuw whitepaper uitgebracht genaamd A Holistic Approach to Energy Efficiency in Datacenters.

In het document onderschrijven ze de manier waar op DatacenterPulse naar het datacenter kijkt en die ik eerder heb beschreven in Groene applicaties ? Integratie !

But just improving PUE should not be an organization’s goal. The real goal is to eliminate waste and pack as much
compute capability in the available power budget. PUE can be a useful indicator of energy efficiency, but it can also
mislead you if used blindly. Take for example a scenario in which the fans in a server can be removed without impacting
its performance. The elimination of fan power reduces the IT power (fan power is part of IT power), improves energy
efficiency, but it also increases the PUE!

De Microsoft mensen (voornamelijk Global Foundation Services (GFS)) verdienen credits voor hun werk en openheid hier over.

Meer:

Share

Groene applicaties ? Integratie !

In de datacenter wereld zijn we al enige tijd bezig met energie efficiëntie. Er worden gezamenlijke normen ontwikkeld zoals Power Usage Effectiveness (PUE). De kunst in het datacenter is dan om zo veel mogelijk energie voor de IT apparatuur beschikbaar te hebben en zo weinig mogelijk te ‘verliezen’ in koeling, verlichting, UPS en andere facilitaire voorzieningen.

Er is een constante race gaande om deze PUE zo klein mogelijk te maken. Er ontstond zelfs een hele PUE ‘oorlog’, aangevoerd door de marketing afdelingen van diverse grote datacenter aanbieders. Deze race levert hele goede innovatie op, maar richt zich alleen op het fysieke datacenter.

Deze PUE zegt helemaal niets over het verbruik van de IT apparatuur zelf; een server kan energie verbruiken en ondertussen geen nuttig werk staan te verrichten (‘idle’ zijn). Ook kunnen de applicaties die op de systemen in het datacenter draaien, ontzettend inefficiënt geschreven zijn en daar door veel energie verbruiken.

Het hebben (en behouden) van een goede PUE betekend dus niet automatisch dat men ook Groen is. Zeker niet als we ook aspecten als grondstof verbruik, recycling en afvoer van afval stoffen (denk aan verpakkingsmaterialen voor servers) en water verbruik (denk aan koelinstallaties) meenemen.

Dat het bekijken van het geheel in plaats van het (sub)optimaliseren van delen handiger is, is iets wat ik al langer verkondig in presentaties en artikelen. Hier voor hanteer ik meestal de DCP Stack;

090924-dc-stack-1.4

Deze toont de gehele keten, die noodzakelijk is om waarde te leveren aan de organisatie. Ook zien we dan de onderlinge afhankelijkheden. (Dit word ook wel de holistische datacenter blik genoemd.)

De IT zijde van de DCP Stack (Platform en hoger) beleven dynamische tijden met virtualisatie en Cloud technieken. Deze dynamiek heeft ook zijn uitwerking op de onderliggende lagen; het fysieke datacenter.

Zo komt men met technieken om virtuele servers dynamisch te verplaatsen van de ene naar de andere fysieke server (VMotion genaamd bij VMware). Hier door ontstaat de mogelijkheid om tijdens dal uren fysieke servers uit te schakelen; deze staan dan toch niets te doen. (VMware Distributed Power Management – Youtube Video).

Hiermee krijgen we een dynamisch IT datacenter, waarbij collecties van servers op- en afschakelen en daar mee ook een zeer dynamische warmte last gaan genereren. Daarbij zou communicatie tussen de IT omgeving en het fysieke datacenter handig zijn; de IT omgeving kan een voorwaarschuwing afgeven naar het koelsysteem bij het opschakelen van een grote collectie servers.

Continue with reading

Share

PUE, wereldwijd ondersteund

Zoals ik eerder melde in Werken aan eenheid rond PUE.., is men bezig om een breed ondersteunde omschrijving van PUE vast te stellen.

Deze is recent uitgebracht:

On January 13, 2010, eight leading organizations that set or use data center energy efficiency metrics, including the 7×24 Exchange, ASHRAE, The Green Grid, Silicon Valley Leadership Group, U.S. Department of Energy’s Save Energy Now and Federal Energy Management Programs, U.S. Environmental Protection Agency’s ENERGY STAR Program, U.S. Green Building Council, and Uptime Institute, met to discuss these metrics for data centers and formed a task force to further define these measurements. This task force, which has met regularly since the initial summit, has prepared the attachedRecommendations for Measuring and Reporting Overall Data Center Efficiency. The goal of this document is to recommend a consistent and repeatable measurement strategy that allows data center operators to monitor and improve the energy efficiency of their facilities. A consistent measurement approach will facilitate communication of Power Usage Effectiveness (PUE), the recommended energy efficiency metric from the agreed upon guiding principles, among data center owners and operators. More information about the guiding principles from the January meeting can be found here.

The attached document addresses how to measure PUE in dedicated data centers. The task force will continue to meet to develop recommendations for how to measure PUE for data centers in larger mixed-use facilities.

We hope that these recommendations help you understand how to measure and publish overall data center infrastructure energy efficiency, and we welcome any questions by e-mail to ENERGYSTARdatacenters@icfi.com.

Data Center Metrics Task Force Recommendations 7-15-2010

Dit document geeft een mooie basis voor het werk van NEN en CENELEC voor de respectievelijk Nederlandse en Europese datacenter standaarden.

Mijn dank aan DatacenterPulse collega Tim Crawford, voor zijn inzet en werk op dit vlak!

Share

BICSI-002 uitgebracht

Zoals eerder vermeld is BISCI bezig met de “Data Center Design and Implementation Best Practices”. Deze is nu officieel uitgebracht.

With the push for greater capacity, increased efficiency and higher levels of utilization, data centers have become
more complex to design and bring on-line. Due to this, today’s data center designer is often required to have knowledge in mechanical, electrical and telecommunications systems—areas not typically found in the same reference manuals or standards.

BICSI 002 addresses this need. Written to complement existing standards, within its pages are requirements,
recommendations and additional information that should be considered when planning and building a data center,
such as site selection, layout, thermal systems and security.

http://www.bicsi.org/uploadedFiles/News062110_Standard.pdf

Share

Automation levert DC container uit België

Afgelopen week presenteerde de Belgische firma Automation hun datacenter container concept. Het bedrijf heeft zijn wortels in de telecom en levert daar al jaren succesvol container modellen voor.

Na enkele jaren traditionele datacentra te hebben gebouwd, is men nu begonnen met een datacenter container.

Daar waar de meeste datacenter container leveranciers kiezen voor de standaard (ISO) afmetingen, kiest Automation er voor om de container als basis te kiezen en deze uit te bouwen.aut-cont2

De standaard ISO container is ongeveer 2,4 meter breed, waar die van Automation ongeveer 3,5 meter is. Hier door ontstaat meer ruimte om een fatsoenlijke rack opstelling te maken waarbij men zonder problemen systemen kan in- en uitbouwen.

De standaard ISO container komt o.a. in 20 en 40 feet lengte. Die van Automation is wat langer aangezien deze aan het einde voorzien is van de koelinstallatie.

De afmetingen zijn echter wel zo gekozen dat deze vallen binnen de Europese regels rond weg vervoer. Ook heeft men de ‘oude’ bevestigingspunten van de ISO container bewaard zodat deze gemakkelijker te hijsen is.

aut-cont1

Bij vervoer word de koelinstallatie tijdelijk gedemonteerd.

Al deze ruimte maakt diverse configuraties mogelijk. Hierbij kan een generator (N), een UPS (N+1), een koelinstallatie (N+1) en enkele systeem racks in 1x 20 feet container gestopt worden. Er behoeft dan enkel elektra en glasvezel toegevoerd te worden. Ook zijn configuraties mogelijk waarbij meerdere IT containers en Utility containers een totaal datacenter container park vormen.

Omdat de container van binnen netjes afgewerkt is met isolatie materiaal (komt o.a. de brandwerendheid ten goeden) en hij ruimer is dan een standaard container, word er een laag drempelig alternatief gecreëerd voor de bestaande oplossingen van bijvoorbeeld SUN/Oracle en HP; men heeft  binnen het idee in een ‘normale’ datacenter ruimte te staan.

Met een gemiddelde levertijd van 6 weken, staat dit kant en klare datacenter op de stoep bij de afnemer.

Share

De keten specialisten ?…

Afgelopen week berichte de Computable over de aankoop van AAC Cosmos door Unica. Hier mee versterkt het installatie groep Unica zijn mogelijkheden in de ICT infrastructuur en datacentra.

Unica creëert hier mee dezelfde mogelijkheden als Imtech. Zij namen in 2002 ICT bedrijf Brocom over.

Zoals ik eerder berichte, staat de facilitaire organisatie nog steeds ver van de ICT afdeling als het op het datacenter aan komt. Dit is ook vaak het geval bij installatie bedrijven; ze zijn erg goed in het bouwkundige, mechanische en elektrotechnische aspect van het datacenter, maar missen de taal van de ICT-er die vaak benodigd is.

Tevens limiteert deze kloof organisaties in het toepassen van energie efficiëntie en beschikbaarheid in de keten;

Binnen de hele keten zijn veel vakspecialisten werkzaam. Deze zijn dagelijks bezig met optimalisatie op hun eigen deel gebied. Vanuit de bedrijfsvoering moeten managers echter wel kijken naar de gehele keten. Als we op elk blokje bijvoorbeeld redundantie toepassen om de beschikbaarheid te verhogen, leidt dit tot dubbele kosten in de gehele keten. Zo komt het voor dat de applicatiebouwer beschikbaarheid in de applicatie bouwt, de (Windows-)beheerder zijn systeem als clustersysteem uitvoert, de hardwarebeheerder de systemen met dubbele voeding uitvoert en vervolgens de facilitair beheerder een redundante voeding levert en een Tier 4-datacenteromgeving bouwt.

De potentie om de keten te bedienen en te doorzien, had Imtech al even met Brocom en komt mondjes maat van de grond. Ik ben benieuwd of de installatie specialisten van Unica en de ICT architecten van AAC Cosmos elkaar snel kunnen vinden en echte meerwaarde voor de klant kunnen creëren in het datacenter.

Komt het misschien toch nog goed met de echte datacenter architect. 😉

Share