JanWiersma.com

Datacenter strategie 101

Eerder gepubliceerd in vakbladen voor Facilitair beheer. Datacenter strategie basics:

 

Informatie Technologie (IT) verandert heel snel en daarmee verandert ook het koppelvlak tussen IT en facilitair: het datacenter. Door de snelle veranderingen in de markt is het de afgelopen jaren steeds belangrijker geworden om het datacenter (of rekencentrum) mee te kunnen laten bewegen met deze ontwikkelingen. De kijk op datacenters is daardoor veranderd: daar waar het vroeger vaste ruimtes waren die men voor 10 à 15 jaar met een grote kapitaalinvestering bouwde, is hiervoor tegenwoordig een gedegen strategie vereist om flexibel in alle marktontwikkelingen mee te kunnen gaan. Deze datacenterstrategie is inmiddels net zo belangrijk geworden als de IT-strategie die het moet faciliteren.

Een goede datacenterstrategie moet de specifieke eisen en wensen van de organisatie adresseren. Het dient een strategie te zijn waarbij rekening gehouden moet worden met de groeiende complexiteit en de tientallen keuzes die de organisatie gaandeweg verwacht tegen te komen. Strategische planning is daarbij geen poging om risico’s te elimineren of te voorspellen hoe het datacenter er uit zal zien over vijftien jaar. Wel is het een manier om te bepalen welke risico’s de organisatie bereid is te nemen en vast te stellen welke richting past bij de bedrijfsstrategie.

Aan de hand van de drie volgende speerpunten kan men een pragmatische datacenterstrategie opstellen voor iedere organisatie:

  • trends en technologieën beoordelen die passen bij de organisatie;
  • de juiste stakeholders betrekken;
  • een kostenmodel bepalen.

Continue with reading

Share

Datacenter relevante (energie) wetgeving – whitepaper

The green gridDe Green Grid heeft een nieuw whitepaper uitgebracht: White Paper #44 – Energy Policy Research and Implications For Data Centres In EMEA. Het document telt 216 pagina’s aan relevantie wetten, regelgeving en subsidie mogelijkheden op het gebied van energie verbruik en relevante gebieden. Diverse landen in de EMEA regio worden behandeld, waar onder Nederland, Duitsland, Frankrijk, UK, maar ook Zuid Afrika en Rusland. Het document is een product van de EMEA Technical Commissie van The Green Grid, onderleiding van Harkeeret Singh. CBRE was verantwoordelijk voor het uitvoeren van het onderzoek. Het document is beschikbaar voor Green Grid leden en komt op termijn beschikbaar voor niet-leden.

Als voorbeeld de inhoudsopgave voor het Nederlandse deel:

  • 8 Netherlands
  • 1. EU and International Policies
  • 1.1. European Performance of Buildings Directive & Energy Performance Certification
  • 1.2. The Energy Labelling Directive (92/75/EEC)
  • 1.3. EU Ecolabel/Flower
  • 1.4. European Commission Code of Conduct on Data Centre Energy Efficiency
  • 1.5. Eco-Design Directive for Energy-Using Products (2005/32/EC)
  • 1.6. Certain Fluorinated Greenhouse Gases (EC Regulation 842/2006)
  • 1.7. EU GHG Emission Trading Scheme (Directive 2003/87/EC)
  • 2. National Policy Context .
  • 2.1. Decree Energy Performance of Buildings (BEG)
  • 3. Regulatory Obligations
  • 3.1. Building Regulations: Bouwbesluit
  • 3.2. Planning: Spatial Planning Act
  • 3.3. Spatial Planning Act (Wet op de ruimtelijke ordaening)
  • 3.4. Environmental Management Act (2004)
  • 4. Financial Costs
  • 4.1. NOx emissions trading
  • 4.2. Carbon Taxes
  • 5. Financial Incentives
  • 5.1. Tax incentive: EIA (Energy Investment Allowance) .
  • 5.2. Financing Support and Interest-Free Loans
  • 5.3. Feed-in Tariffs (FITs)
  • 6. Voluntary Mechanisms
  • 6.1. BREEAM-NL
  • 6.2. Green Fan
  • 6.3. More with Less Programme
  • 6.4. InfoMil
  • 6.5. Energy Star

 

Share

The ‘green’ PUE monster…

<sorry Dutchies.. this one is in English… sort of..>green-monster

My fellow Datacenter Pulse (DCP) colleague Mark Thiele wrote a good article on the use of PUE in the datacenter industry. He basically argues that you should look at the TCO of the datacenter and have a holistic view (like we promote with the DCP stack)

He opens with the ‘my PUE is better than yours remark’ we see going around in the industry. This is mentioned before by the Green Grid; the misuse of PUE. (I have written several articles about this issue on my Dutch datacenter blog)

Well guess what… we kinda created this monster ourselves;

Commodity

Datacenter are going commodity. Differentiation is in efficiency; looking at all the signs in the datacenter industry: the datacenter is becoming a commodity. The general idea is that any successful product will end up a commodity. See Simon Wardley’s excellent presentations on this subject.

Example signs are:

(got lots more, but for an other blog and beyond the point now…)

Most of this leads to technology being available to everyone. You still need a big budget to start building a datacenter but cost is coming down thanks to advances in IT technology (like: do we still need to build TIER4?) and facility technology. Great example is the option to build modular and from an assembly line. This reduces datacenter production cost and you can spread CAPEX across time.

For any commodity product the competitive advantage diminishes, prices go down and if you’re in the market of selling the stuff: your differentiation is on price and efficiency.

So we push towards efficiency and lowering our operational cost, to be cheaper that the competition. It doesn’t matter what type of datacenter owner you are (enterprise, cloud, co-lo, whole sale..) the competitive advantage is in the operational cost. Everyone already has a SAS70, ISO27001, ISO9001, PCI, etc.. certificate. Everyone can get and build the technology and at some point it doesn’t pay off to worry about the small engineering details anymore; the cost are too high to get enough competitive advantage in return.

Marketing & Sales

If you’re in the datacenter co-lo or whole-sales business then your marketing and sales guys are trying to look for the (next) USP.

With the datacenter efficiency on the rise, it’s nice to have a single figure to tell your customer you are more efficient that the competition (and able to offer lower prices with it..).

PUE presented a great opportunity to get a nice USP for our sales guys. And I can’t blame them: it’s hard to sell a (going) commodity product and it’s something our customers are asking for.

Sustainable & marketing

The whole ‘green wash/hype’ (before the economic crisis) added to the misuse of PUE from a sales and marketing perspective. Everyone was, and still is, building the next greenest datacenter on this planet. It would be nice to have a single figure to promote this ‘green stuff’ and tell the world about this new engineering marvel… and PUE is happily adopted for this.

On the enterprise/cloud datacenter owners side it’s not very different.. it’s just another angle. Especially the larger datacenter (cloud) owners are pushed from a marketing perspective thanks to organizations like Greenpeace. They demand full disclosure of datacenter energy use and sustainability on behalf of the world’s population.

PUE is a nice tool to get some of the pressure off and tell the world you have the greenest datacenter operation, like Facebook, Google, Microsoft and others are now doing. The problem with those numbers is they don’t say anything without the full context. And like Mark says in his article; it doesn’t say anything about the full datacenter stack.

Sustainable & Government

The really interesting thing I have been dealing with recently is government and PUE.

Many state and local government organizations are looking at datacenters from an energy use perspective. This focus is thanks to reports from research and governmental institutes (for example EPA) and organizations like Greenpeace.

Government can either use the ‘carrot (subsidies) or stick (penalties)’ approach but it always requires some kind of regulation and some form of measurement. They happily adapted PUE for this.

The main problem with this is that PUE is not ready to be audited. Sure general guidelines for PUE calculation are available, but it still doesn’t have all the full details and leaves opportunity to ‘game the system’. It also doesn’t address the full holistic datacenter approach and the fact that you cannot use PUE to compare different datacenters.

Datacenter customer

Some of the governmental organizations are also using PUE for their co-lo tenders. And they are not the only ones. More and more RFP’s on the datacenter market state a specific PUE number or target with additional credits for the lowest number.

I can’t blame the datacenter customer; the datacenter is a pretty complex facility box if you’re not educated in that industry. It would be nice to just throw some numbers at it like TIER1-4 and PUE1-2 and select the best solution provider on the market…

I can’t blame the datacenter owner for the answer with ‘the best possible number he can think of’… they just want the business…

Datacenter vendor

As usual I’m part of the problem also. When I go shopping for the next big thing in datacenter technology, PUE is always part of the conversation.

Datacenter equipment vendors (especially cooling and power) are happy to throw some numbers my way to convince me that their solution is the most efficient.

The PUE numbers are on the equipment spec sheets, on the vendor website and in the sales meeting… but at the end I always have to conclude that our little number dance really doesn’t tell me anything. Just like Mark mentions: I go back to TCO.

Our own monster

So… we created this monster as a datacenter industry. Owners and consumers. Government and industry groups. I can also assure you that this will continue and will also happen to some of the great other Green Grid initiatives like CUE, WUE and the Maturity Model. It’s just a way of trying to put a number on what can be a very complex stack of functions called ‘the datacenter’.

Only way to diminish the monster is to educate our industry colleagues and our customers. And stop throwing the numbers around…

For the record1: the use of PUE

Don’t get me wrong, I love PUE and have used it successfully many times to benchmark my own data centers and prove to senior management that we progressed in efficiency. It’s also the way the EU Datacenter Code of Conduct works: show progress every year by calculating the PUE for the same datacenter with the same calculation method. This way you will have apples – apples situation.

Its just that I don’t like the way PUE is used in the above examples…

For the record2: On datacenter and green

Full disclosure: Datacenters are not green and will never be green. They consume large amounts of energy and will consume more energy in the future. All thanks to Jevons Paradox and the fact that we start to consume more CPU/Storage if prices go down…. And yes, someone has to build datacenters for all the CPU’s and disk’s…

See GreenMonk – Simon Wardley on ‘Cloud & Green’

I do think that:

1. We should aim to build the most efficient datacenters on the planet. It should not only focus on energy consumption but on all resources used for build and operation.

2. We cannot keep up with the rising demand from an energy-grid perspective. We should start looking for alternative ways for datacenter builds and deployment.

Share

Een virus in je noodstroom generator…

Artikel door Jeroen Aijtink, CISSP en Jan Wiersma, Int. Director EMEA DatacenterPulse.securing-scada-network-p1

In de zomer van 2010 werd bekend dat er een zeer geavanceerd worm virus was gevonden die als doel had om Iraanse ultracentrifuges te saboteren. Door programma code in PLC’s van Siemens te wijzigen kon men de motoren van de centrifuges beïnvloeden. Het virus kreeg de naam Stuxnet mee en was het eerste virus dat industriële besturingssystemen als specifiek doel had.

Tot voor kort was het idee dat SCADA en industriële besturingssystemen kwetsbaar waren voor een cyber aanval, voor vele slechts theorie. Op basis van de complexiteit van deze systemen en hun bijzondere communicatie protocollen achtte leveranciers en gebruikers zich veilig tegen dergelijke aanvallen. De redenatie was dat dergelijke industriële besturingssystemen zoals PLC’s simpel weg zo verschillend zijn van normale IT systemen, dat deze geen interessant doel zijn voor traditionele hackers. De verschillen waar door de industriële besturingssystemen geen interessant doel zouden zijn waren:

  • Industriële besturingssystemen bevatten componenten zoals PLC’s, motor controllers en intelligente automaten waar van de kennis ver buiten die van de meeste hackers ligt.
  • Industriële besturingssystem componenten zijn uitgevoerd in wijdvertakte netwerken met honderden onderdelen waarbij de complexiteit er van meestal door enkel ervaren engineers begrepen word.
  • Industriële besturingssystem communicatie protocollen zoals Modbus en BACNet zijn onbekend in de wereld van de meeste hackers. Data pakketten in deze omgeving zijn niet te vertalen zonder specifieke kennis van dit soort systemen.
  • Zonder gedetailleerde kennis van de specifieke systeem architectuur, zegt veel van de systeemdata de hacker niet veel.
  • Industriële besturingssystemen bevatten geen financiële of persoonlijke data die normaliter het doel zijn van de traditionele hacker.

Een beveiligings strategie gebaseerd op de bovenstaande systeem complexiteit en unieke systeem architecturen word door beveiliging specialisten ook wel ‘security through obscurity’ genoemd. Dit alles heeft er voor gezorgd dat de meeste SCADA netwerken slechts beveiligd zijn met een wachtwoord voor het bedienend personeel en niet veel meer.

In de afgelopen jaren is de wereld van industriële besturingssystemen en SCADA’s echter behoorlijk veranderd. (Oudere)Legacy industriële besturingssystemen bestonden uit speciale hardware, merk gebonden communicatie protocollen en aparte communicatie netwerken. Moderne industriële besturingssystemen bestaan uit standaard PC’s en servers die communiceren via standaard IT protocollen zoals IP en hun netwerk omgeving delen met andere IT eindgebruiker netwerken. Deze verandering heeft diverse voordelen opgeleverd zoals gereduceerde hardware kosten en verhoogde flexibiliteit en bruikbaarheid van deze industriële besturingssystemen. Het gaf de leveranciers van industriële besturingssystemen de mogelijkheid om hun systeem te ontwikkelen op standaard Windows of Unix platformen. De systemen kregen ook de mogelijkheid om gemakkelijke data en rapportages te delen met andere IT en netwerk systemen. Hier door zagen we in de afgelopen jaren echter wel de grens tussen IT (Kantoor Automatisering) omgevingen en de facilitaire industriële besturingssystemen vervagen. De voordelen brengen ook de nadelen van de traditionele IT omgeving met zich mee; de verhoogde kans op cyber crime.

In 2008 schreef het Amerikaanse NIST hier over in hun Guide to Industrial Control System Security: “Widely available, low-cost Internet Protocol (IP) devices are now replacing proprietary solutions, which increases the possibility of cyber security vulnerabilities and incidents.”

Dat de verhoogde kans op cyber crime een reële bedreiging vormt toonde DOE engineers van het Idaho National Engineering Lab (USA) in het Aurora Project (2007) aan. Samen met hackers van het Department of Homeland Security (DHS) startte ze een cyber aanval met als doel een grote diesel generator te vernielen. Enkele minuten nadat de hackers toegang kregen tot het SCADA systeem wist men de generator in handen te krijgen. Op een video die in 2009 getoond werd in het Amerikaanse CBS’60 Minutes was te zien dat de 27ton wegende generator gestart werd, flink begon te schudden en na enige seconde volledige gehuld was in rook. De generator overleefde de cyber aanval niet.

[youtube=http://www.youtube.com/watch?v=fJyWngDco3g&w=448&h=252&hd=1]

Het Aurora Project project toonde daar mee aan dat het mogelijk was voor hackers om via een netwerk toegang fysieke schade toe te brengen aan een generator. De hackers hadden hier bij kwetsbaarheden gebruikt die in de meeste industriële besturingssystemen vandaag de dag aanwezig zijn.

Beveiligen van een modern SCADA netwerk

Het feit dat leveranciers van moderne SCADA systemen deze gebaseerd hebben op standaard IT onderdelen en protocollen, levert wel als voordeel op dat er al veel kennis is over beveiliging van dergelijke omgevingen.

De basis voor een goed beveiligde omgeving begint met het bepalen van dreigingen en risico’s die er zijn voor de organisatie en zijn infrastructuur. Door het combineren van de facilitaire systemen met de IT-omgeving is de stelling “we hebben toch een firewall” niet meer afdoende. Denk bijvoorbeeld aan het draadloze netwerk, laptops van bezoekers  of een account manager die regelmatig via draadloze netwerken in hotels of restaurants op Internet gaat. Let ook op  zaken die niet direct met ICT te maken hebben. Welke (openbare) informatie is over de organisatie beschikbaar, welke communicatie stromen zijn er met onderhoudsleveranciers en hoe controleer ik de onderhoudsmonteur. De vraag ‘waartegen beveilig ik de organisatie’ is een belangrijke vraag om te beantwoorden. Iedere organisatie heeft tenslotte andere tegenstanders.

Goed beveiligingmaatregelen zijn afgestemd op de bedreigingen en tegenstanders van een organisatie. Zorg dat beveiligingmaatregelen bruikbaar zijn en de processen de organisatie ondersteunen. Naast techniek is scholing van medewerkers over beveiliging erg belangrijk.

Om een bedrijfsnetwerk te beveiligingen is het creëren van verschillende zones het uitgangspunt. Iedere zone heeft zijn eigen functie en de overgang tussen zones verloopt via een firewall. Communicatie met een zone die minder vertrouwd worden, zoals Internet, verloopt via een proxy-server in een demilitarized zone. Door de proxy-server ontstaat een scheiding in de verkeersstroom en wordt de inhoud gecontroleerd op virussen en malware. Houdt ook het rekencentrum voor kantoorautomatisering en de facilitaire systemen gescheiden van elkaar met eigen zones.

Door de verschillende zones zijn de facilitaire systemen gescheiden va
n de IT-omgeving en communicatiestromen hiernaar toe zijn te inspecteren met intrussion detection systemen. Een tweede voordeel van het aanbrengen van zones is een performance verbetering doordat communicatiestromen elkaar niet hinderen.

Naast beveiliging binnen het netwerk zijn servers, besturingssystemen, applicaties en databases goed beveiligd en voorzien van de laatste (security) patches en antivirus software. Server beveiliging is belangrijk, omdat de firewall alleen kijkt of de communicatie toegestaan is terwijl antivirus software de servers beveiligd tegen bekende virussen. Patches voor het besturingssysteem zorgen dat beveiligingslekken gedicht worden. Na installatie moet software in een doorlopend proces onderhouden worden.

Steeds meer facilitaire systemen hebben remote-support vanuit de leverancier. Denk hierbij goed na over welke informatie de organisatie kan verlaten. Daarnaast kan het een goed idee zijn om de leverancier alleen toegang te geven wanneer er daadwerkelijk een probleem is. Het oplossen van storingen vanuit de locatie lijkt ouderwets, maar geeft wel de meeste controle. Zeker wanneer de monteur begeleid wordt door iemand die inhoudelijk kan beoordelen wat deze uitvoert.

Bovenstaande lijkt niet in lijn te zijn met de visie, van de laatste jaren, op informatiebeveiliging volgens Jericho. Jericho gaat uit van netwerken zonder “firewall-slotgrachten”,  waarbij beveiliging aangebracht wordt daar waar dat nodig is op de servers en werkplekken. De traditionele firewall zou hierdoor overbodig zijn. Wanneer beveiliging op alle systemen integraal geregeld is kan de firewall uit. Voordat dit moment is aangebroken is er bij veel organisaties nog een lange weg te gaan.

Continue with reading

Share

My cloud rules…

Enige tijd geleden, tijdens een verhitte Twitter conversatie tussen cloud guru’s en evangelisten, stelde ik mijn lijst met cloud regels op. Aangezien Twitter nogal ongenuanceerd is met een beperkt aantal karakters volgt hier een samenvatting met wat tekst en uitleg:

Regel 7

5az_bor_w300

Er is veel discussie over cloud definities. Wat is nu wel en wat is nu niet cloud ? De meest gebruikte definitie is die van NIST (pdf).

Echter kijkend naar de ontwikkelingen in de markt en de volwassenheid van de oplossingen , ga ik echter een stapje verder: een generieke definitie van cloud is op dit moment niet relevant.
De scope van o.a. de NIST definitie is op dit moment al erg breed. Met alle ontwikkelingen die er nog komen, zullen we de definitie steeds moeten aanpassen. Over een paar jaar zullen veel van deze ontwikkelingen zo gewoon zijn voor ons dagelijks IT gebruik, dat we het niet meer cloud zullen noemen. Daar waar een ‘definitie’ voor cloud wel van toepassing is, is binnen je eigen organisatie. Dat bevorderd de communicatie tussen bijvoorbeeld IT en de business.
De inhoud van die definitie is opzicht niet eens zo heel relevant, als je maar iets gezamenlijks afspreekt.
Tussen jou en alle leveranciers… tja, daar ga je gedurende de hele cloud hype fase nooit uitkomen. Zodra we in Gartners "Trough of Disillusionment" komen zullen alle marketing afdelingen snel afscheid willen nemen van de cloud term.
Om met de woorden van Simon Wardley te eindigen: Cloud; It’s like computers on the internet, innit?!?

Regel 6

mv7_bor_w300

Voordat je cloud computing gaat inzetten als middel, dien je een exit strategie te formuleren. Bij de meeste cloud oplossingen maak je jezelf enigszins afhankelijk van een leverancier of een technologie. Dit is soms omdat er data opslag plaats vind bij de leverancier of wegens het afstemmen van je architectuur of ontwerpen op die van de leverancier.

Je dient dus een plan te hebben om afscheid te kunnen nemen van de cloud leverancier. “Hoe krijg ik mijn data terug?” bijvoorbeeld.

Regel 5

v7g_bor_w300

Diverse nieuwe applicatie frameworks geven de mogelijkheid om applicaties te ontwikkelen die minder gevoelig zijn voor de variabele performance van het basis netwerk dat ‘het internet’ heet. Dit is nodig omdat de gebruiker van de applicatie soms de functionaliteit via een mobiele internet verbinding gebruikt en dan weer via een ADSL2 verbinding. Daarnaast levert de manier waar op het internet technisch is uitgelegd altijd variabele performance. De nieuwe technologische mogelijkheden zorgen er voor dat men zich minder druk hoeft te maken over latency. (denk aan video streaming zoals Netflix doet)

Zie ook: http://jwiersma.wordpress.com/2011/01/08/paas-de-toekomst-van-programmeren-1/

Regel 4

qs2_bor_w300

Bij het bouwen van cloud applicaties dient men rekening te houden met uitval van software, delen van hardware, complete servers en zelfs complete datacentra. Dit betekend bijvoorbeeld op een juiste manier om gaan met state en stateless.

De nieuwe applicatie framewerken en vooral de PAAS oplossingen die geboden worden, hebben hier voor diverse standaard mogelijkheden.

Zie: http://jwiersma.wordpress.com/2011/01/08/paas-de-toekomst-van-programmeren-1/

Regel 3

ukn_bor_w300

Veel IT-ers stappen de cloud wereld in met het idee dat ze hun gedachtegoed, ontwerpen en applicaties zo mee kunnen mee nemen en ‘in de cloud kunnen gooien’. Zo werkt dat echt niet.

Om goed in een cloud omgeving van een leverancier te kunnen werken moet je hun architectuur en ontwerpen goed begrijpen en kunnen toepassen.

Zie:
http://jwiersma.wordpress.com/2011/02/21/mijn-cloud-is-beter-dan-die-van-jou/
http://jwiersma.wordpress.com/2011/04/22/mestvorkknuppels-uit-de-stal-de-cloud-is-down/

Regel 2

94x_bor_w300

Cloud geeft de mogelijkheid om functionaliteit die uitermate gestandaardiseerd is (commodity IT) buiten de organisatie te plaatsen en je te concentreren op zaken die je een voordeel geven op de concurrentie.

Zo levert het hebben van een tekstverwerker of een spreadsheet programma al lang geen voordeel meer op; de concurrentie kan deze ook gewoon kopen en implementeren. De vraag is dus hoeveel geld je moet uitgeven om deze functionaliteit in eigen huis te ontwikkelen en beheren.

Zie:
http://jwiersma.wordpress.com/2010/11/06/en-dan-die-applicatie-naar-de-cloud-toe/
http://jwiersma.wordpress.com/2011/01/31/de-nieuwe-overheid-i-strategie-cloud/ (laatste paragraaf)

Regel 1

bqs_bor_w300

Cloud is vooral voor en door de eindgebruiker. Daarbij moet de IT-er vooral de organisatie helpen in te transitie. Een afwerende houding op dat vlak zal cloud computing niet buiten te deur houden en zal de eindgebruiker naar Schaduw-IT drijven.

Deze regel is beschreven in ‘de opkomst van Schaduw-IT’: http://jwiersma.wordpress.com/2011/07/06/de-opkomst-van-schaduw-it/

Share

Energie verbruik Datacentra stabiliseert ??!?

Op 1 augustus j.l. kopte de New York Times:

Data Centers’ Power Use Less Than Was Expected

Data centers’ unquenchable thirst for electricity has been slaked by the global recession and by a combination of new power-saving technologies, according to an independent report on data center power use from 2005 to 2010.

Het artikel is gebaseerd op een onderzoek van Jonathan G. Koomey die voor Stanford University werkt en een bekende is in de datacenter wereld met eerdere onderzoeken.

Het onderzoek komt tot de conclusie dat de energie afname voor datacentra niet zo hard gegroeid is als eerder voorspeld werd in de rapporten van de EPA.

koomey-research

De reden voor de verminderde groei zou te vinden zijn in:

  • Economische crisis –> minder server verkoop en datacenter bouw;
  • Verminderde server aankoop door virtualisatie;
  • Inzet van energie efficiënte technologieën in IT systemen en datacentra.

Minder servers?

De eerste twee redenen zouden uit de server verkoop cijfers te halen moeten zijn en dat doet Koomey aan de hand van IDC cijfers van 2007 v.s. 2010. (pagina 20 rapport). Als we deze cijfers langs die van een andere markt analist liggen, Gartner, komen deze redelijk overeen. In september 2009 gaf Gartner aan dat de server verkoop zo’n 28% lager was dan die periode een jaar geleden (2008);

In the second quarter of 2009, worldwide server shipments dropped 28 per cent year-on-year, while revenue fell 29.4 percentage points year-on-year, according to Gartner, Inc.

“The server market remains constrained on a worldwide level,” said Jeffrey Hewitt, research vice president at Gartner. “Server sales have felt the impact of reduced budgets since the last half of 2008 and the second quarter of this year remained in the negative.”

In mei 2010 rapporteerde ze dat er een groei geboekt was van 23% ten opzichte van het voorgaande jaar (2009);

Worldwide server shipments grew 23 percent year over year in the first quarter of 2010, while revenue increased 6 percent, according to Gartner, Inc.
"We’ve seen a return to growth on a worldwide level, but the market has not yet returned to the historical quarterly highs that were posted in 2008,

Maar de groei was nog niet op het niveau van 2008. In november 2010 werd nog steeds groei gemeten van zo’n 14%. IDC gaf recent aan dat de verkoop in de lift zit en behoorlijk zal stijgen. Dit zou te danken zijn uit de wereldwijde uitrol van cloud computing initiatieven;

Investments in private and public clouds will spur worldwide server sales over the next four years to the tune of $9.4bn (£5.8bn), according to IDC.

<IDC> estimates 1.2 million systems that underpin public cloud deployments will be shipped by 2015, a compound annual growth rate of 21 per cent and 570,000 servers to be sold for private cloud implementations, CAGR of over 22 per cent.

Bij al deze server markt groei cijfers moet echter wel opgemerkt worden dat ze wel relatief zijn en zeggen niets over het feit of het energie efficiënte modellen zijn en of deze in hoog efficiënte datacentra terecht komen. Daarnaast is de focus van de eerder genoemde energie groei in datacentra onderzoeken, die van de US situatie en moeten de server verkoop cijfers dus per geografische markt bekeken worden.

Het lijkt echter valide om te stellen dat de dalende server verkoop heeft bijgedragen aan de verminderde groei van energie afname van datacentra.

Energie afname per server.

Als we kijken naar energie afname in een datacenter dan zien we dat er een hele energie keten is waar verbruik en verlies in optreed. Deze is duidelijk te zien in de DatacenterPulse Stack  of het Cascade Effect van Emerson:

The_cascade_effect

Deze laatste geeft een aardig beeld waarbij elke watt die bespaard word bij de bron totaal 2,84 watt aan besparing levert. Dit is uiteraard afhankelijk van alle schakels die er tussen zitten en de efficiëntie daar van. Als we kijken naar de totale energie last van een datacenter is het dus zeker interessant om te kijken naar de ontwikkeling van server componenten in de afgelopen jaren.

Dus de HP power calculator gepakt en een theoretische berekening gemaakt:

Productie Jaar Type CPU’s RAM HD Afname
2003 DL360 2 (PII) 4 2x 18GB 176W
2004 DL360G3 2 8 2x 36GB 360W
2008 DL360G5 2 (Intel L5240) 8 (low power) 2x 36GB 238W
2011 DL360G7 2 (Intel L5630) 8 (low voltage) 2x 60GB SSD 160W

Los van het feit dat dit een theoretische benadering is en n
ogal hoog over, levert het een aardig aanknopingspunt: in de server ontwikkeling hebben we een grote sprong gezien in energie toename met de komst van snellere systemen. Echter zijn er in de afgelopen 2 a 3 jaar grote stappen gemaakt in het terug dringen van dat energie verbruik. In bovenstaande berekening zien we dat een snelle quadcore machine met solid-state disken minder energie verbruikt dan zijn broertje met een Pentium 3 CPU uit 2003.

Een collega zetten mij recent op dit spoor toen we keken naar het aantal ampère dat er per rack verbruikt word en de groei hier van; bij rackmount servers bleek dit redelijk te stabiliseren en op bepaalde vlakken zelfs te dalen.

We kunnen dus wel stellen dat de servers die vandaag de dag gekocht worden zuiniger zijn dan voorheen en zeker bijdragen aan de daling die gesignaleerd word in het rapport van Koomey. Zeker als we het cascade effect er nog eens overheen gooien. De combinatie van efficiëntere servers, die beter uitgenut worden door virtualisatie zal het verhaal alleen nog maar versterken.

De grote glazen bol

De vraag is nu echter waar gaat het de komende jaren heen en zet de daling zich voort of is het slechts uitstel van executie? Het antwoord hier op ligt op een aantal vlakken:

1. Besparingen.

De ontwikkeling van energie zuinige servers zet zich voort. Neem als voorbeeld de inzet van de ARM en Atom CPU voor servers. Mensen die recent een keynote van mij hebben gevolgd weten dat ik daar een fan van ben en deze ontwikkeling op de voet volg. Voorbeeld: Low-power server startup pitches Intel Atom for Hadoop en zoals Gigaom enige tijd geleden melde:

ARM-based servers will consume a fraction of the power and space demanded by today’s most efficient servers. Performance per “core” will be lower, but clusters of these efficient nodes will consume perhaps as little as 1/10th as much power to deliver comparable performance. Couple that with huge gains in performance density to realize massive savings potential in data center capital expenditures.

De ontwikkelingen op het efficiëntie gebied van datacentra gaat ook door. De grote datacentra ontwikkelen zich langzaam naar de PUE onder de 1.1. Daar zien we de ontwikkeling in technologie en de discussie over temperatuur in het datacenter die ik al eerder in een blog behandelde. Er blijft echter een groot markt aandeel van kleiner datacentra die zich nog nooit druk heeft gemaakt over PUE. Deze zitten o.a. in kantoorpanden met hun datacentra. Google is nu gestart met een stuk bewustwording voor dit deel van de markt met de publicatie van hun Best practices

2. Groei.

Zoals ik beschreef in de Jevons Paradox blog zullen we de komende jaren behoorlijke groei zien in de cloud computing markt. Dit levert verhoogde afname van servers zoals IDC dus al schetste. Ook zal dit leiden tot meer en grotere datacentra. (Deze servers en datacentra zijn dan hopelijk wel zo efficiënt mogelijk..) Dit werd ook geschetst door Christian Belady (Microsoft) bij zijn toekomst schets van datacenter bouw markt.

Met de mate van groei in afname van cloud computing producten die nu al te zien is in de markt denk ik echter dat we Gartner (2007!) gaan volgen:

image

Ze hadden dan wel niet de economische crisis zien aankomen toen ze deze in 2007 opstelde, maar die scherpe daling mede dankzij nieuwe (efficiënte) technologieën is heden ten dagen wel te zien. De energie consumptie zal daarna weer toe nemen wegens de massale groei aan servers en datacentra vanuit Jevons paradox. Zoals Simon Wardley daarbij aangeeft:

By increasing efficiency and reducing cost for provision of infrastructure, a large number of activities which might have once not been economically feasible become economically feasible.

The effect of these forces is that whilst infrastructure provision may become more efficient, the overall demand for infrastructure will outstrip these gains precisely because infrastructure has become a more efficient and standardised component.

De ontwikkeling in energie efficiënte servers en datacentra zal de groei iets temperen maar de vraag is daarbij enkel: hoe hard gaat de totale groei en volgens welk (EPA) scenario ?

Meer: Blog J. Koomey

 

Continue with reading

Share

DCP start 2e open-RFP project

Zoals gisteren aangekondigd op Twitter en de DatacenterPulse website, is DatacenterPulse samen met eBay het 2e open RFP project gestart. Dit maal voor een datacenter ontwerp in Salt Lake City, Utah. Het project heeft de naam QuickSilver mee gekregen.

Bij het vorige open-RFP project Mercury werd de datacenter ontwerp markt uitgedaagd om een maximaal flexibel datacenter te ontwerpen voor eBay in Phoenix. Hierbij was ook de eis dat men het gehele jaar 100% free cooling toegepast kon worden. Daarnaast was de eis:

  • modulair TIER 1 t/m4 kunnen ondersteunen
  • modulair lucht koeling en water koeling kunnen ondersteunen
  • zowel normale racks als gehele datacenter containers kunnen ondersteunen
  • diverse rack vermogens kunnen ondersteunen

De winnende ontwerpen werden op 22 februari 2011 gepresenteerd aan de DatacenterPulse leden tijdens de Modularity Readout op de Google campus. Het project bereikte zijn doel: de markt uitdagen om met innovatieve ontwerpen te komen voor datacentra en deze kennis delen met andere datacenter eigenaren.

Project QuickSilver neemt de leerpunten uit het vorige open-RFP project mee voor de volgende uitdaging;

We are consutructing a new building on one of the three adjacent 15 acre phases of the Salt Lake City, Utah Data Center that we opened in 2010. You can see the phases from the arial photo below. The initial delivery of IT critial power will be 4MW, with scale to 30MW. The design must be completed in Q1 of 2012, with construction starting in Q2 and full commissioning complete by 12/21/2012.

Hierbij zijn de volgende eisen gesteld:

  • Server racks from 5-40kW
  • Server containers that can scale from 100kW and up.
  • All locations (racks & containers) must have air and hot-water cooling available
  • Expand power and cooling capacity in a modular basis
  • Ability to select or change Tier level from Tier 1 to concurrently maintainable Tier 2 or 3.
  • Free cooling year round in Utah
  • Rack or MEP UPS flexibility (choose)
  • 400V distribution to the server rack PDUs
  • Entire design must be highly cost effective.

De beste 5 ontwerpen worden ook weer gedeeld met datacenter eigenaren uit de 1500+ leden groep van DatacenterPulse.

[youtube=http://www.youtube.com/watch?v=LGSoBF_yZm4&w=448&h=252&hd=1]

 

De project pagina is hier: http://datacenterpulse.org/rfp/modular/quicksilver. De inschrijving is 19-8 geopend.

Share

Dat cloud gedoe… kost mij mijn baan…

500004198-03-01Als het om cloud computing gaat zijn vaak (enterprise) IT-ers er als de kippen bij om me te vertellen dat het allemaal toch niet gaat werken, onveilig en onstabiel is. Ik heb vaak grotere discussies met mijn IT vakbroeders dan met de business zijde van de organisatie.

In een recente discussie over de implementatie van cloud computing bromde een IT-er: “dat cloud gedoe… dat kost me nog eens mijn baan…”.

Als je sommige berichten (en marketing) rond cloud mag geloven, heeft hij gelijk. ‘Zet al je IT maar buiten de deur en in de cloud… en je leven word een stuk beter’, lijken deze verhalen te zeggen. Daarbij ‘gaan de kosten flink omlaag, want je hebt geen IT-er meer nodig’.

Als je jaren hebt gewerkt aan de implementatie van een stuk infrastructuur en de optimalisatie daar van, en er komt nu een leverancier langs die met het bovenstaande je levenswerk afdoet als een hobby project… ja, dan zou ik ook boos worden.

Zoals altijd ligt de echte waarheid ergens in het midden. Een kleine voorspelling hoe het de komende jaren gaat uitspelen:

 

  1. Kleine en startende ondernemingen zullen standaard kiezen voor cloud services en niet meer voor eigen (small business) servers in de meterkast.
  2. Grotere ondernemingen starten met experimenteren met cloud computing. Als eerste zullen hier de SAAS en IAAS services getest worden omdat hier de meeste standaard (commodity) services te vinden zijn. Ook zullen (net als met de start van Virtualisatie) als eerste OTA diensten naar de cloud gaan.
  3. De snelheid van de migratie zal per sector verschillen en waarschijnlijk ook per land of wereld deel. Dit zal voornamelijk samenhangen met wetgeving en voor die sector geldende regels.
  4. Daar waar services niet naar de cloud kunnen, zullen steeds meer CIO’s kiezen voor ‘cloud-in-a-box’ diensten. Daarbij word een bepaalde service, volledig extern beheerd, in het eigen datacenter geplaatst. IAAS services zullen als eerste geschikt zijn voor dit soort modellen.
  5. ICT-Innovatie zal in een hoger tempo nieuwe services en oplossingen leveren. Cloud is hier een motor voor. Veel van die ontwikkelingen zullen ook uit de labs van de cloud services providers zelf komen. Zie: De Formule 1 van ICT.

changeDit alles betekend nogal wat voor de ICT-er van nu. Al eerder gaf ik een beschrijving van de impact die PAAS op mijn collega software ontwikkelaars kan hebben. IAAS heeft een mogelijk nog grotere impact op de IT infrastructuur ontwikkelaars en beheerders.

Sommige mensen zien alle veranderingen als een kans en andere als een bedreiging. Feit is echter dat ICT altijd een snel veranderd vakgebied is geweest en zal blijven;

In het begin van mijn ICT carrière begon ik met Windows NT 3.51 aan de workstation kant en Novell NetWare 3.12. Binnen enkele jaren en vele uren aan zelf/avond studie had ik mezelf voorzien van certificaten van Certified Novell Administrator (CNA) tot tig examens verder MCNE. Ik kende werkelijk bijna elk commando uit mijn hoofd met volledige opties en wist blind te navigeren binnen bepaalde menu’s.

Allemaal kennis waar ik 10 jaar later niets meer aan heb… Verandering is de enige constante in het ICT vakgebied.

Nieuwe kansen.

Zolang je bereid bent te veranderen en bijscholen en te gaan voor nieuwe uitdagingen, zijn er een hoop kansen:

  1. Krapte op de arbeidsmarkt; In de komende jaren zullen de baby-boomers met pensioen gaan. Dit geeft mijn generatie de last voor het ophoesten van de pensioen premies, maar geeft ook een hoop krapte op de arbeidsmarkt. Al die mensen die nodig zijn om de cloud services te bouwen, onderhouden en adviseren moeten tenslotte ergens vandaan komen.
  2. Jevons paradox; Zoals ik in een eerder blog al beschreef zorgen de dalende kosten voor opslag en rekenkracht voor een stijgende vraag. Sommige cloud services groeien op dit moment al met 1000-en fysieke servers per maand en deze vraag zal nog explosief blijven groeien. Dit moet allemaal gebouwd en beheerd worden.
  3. Onopgeloste puzzels; Voor ons ICT-ers zijn er nog een hoop onopgeloste uitdagingen. Denk aan het goed kunnen verwerken en beschikbaar maken van grote hoeveelheden data bijvoorbeeld. Dit zijn technologische problemen waarbij we slechts aan de vooravond staan van de oplossing. Zeker hoger in de ICT-stack (of OSI lagen) zijn er nog voldoende uitdagingen te vinden.

In de komende jaren zullen bepaalde banen verdwijnen en zullen er nieuwe ontstaan. Aan de cloud aanbieders kant zal een vraag ontstaan naar mensen die grootschalige, multitendant, infrastructuren kunnen ontwerpen, bouwen en onderhouden. Hierbij zal expertise worden gezocht in parallel processing, virtualisatie, energie management en koeling, security en encryptie, high-speed netwerken en data caching (CDN) en gerelateerde vakgebieden. Daarnaast zal veel software moeten worden herschreven om (efficiënt) te kunnen werken op een cloud platform.

Aan de eindgebruikers kant zal, nu we de transitie maken naar een utility en services model, de vraag naar IT-ers voor het bouwen en onderhouden van in-huis systemen zien afnemen. De vraag naar kennis en skills rond informatie management, proces ontwerp en automation zullen echter toenemen. Er zullen ook nieuwe IT rollen ontstaan. Een ‘(cloud) services broker’ zou een rol kunnen zijn waarbij deze persoon de brug vormt tussen (externe) cloud services en de interne business units. Dit zullen steeds meer regie functies worden. Binnen bedrijven die op dit moment een agressief cloud adoptie beleid toepassen, is die wijziging binnen hun IT afdelingen al te zien; de grote van de IT afdeling neemt af, maar de meer senioren en strategische rollen nemen toe.

Aan beide zijde (cloud aanbieder en afnemer) zal de vraag toenemen voor IT-ers die over de traditionele silo’s heen kunnen denken en ontwerpen. Dit is terug te zien aan de opkomst van DevOps aan de cloud provider kant en de vraag naar cloud/services architecten aan de afnemer kant. Deze vaardigheid, om relaties tussen diverse IT disciplines te kunnen onderscheiden en bouwen, is iets wat ontstaat uit het werken en ervaring op doen in verschillende rollen gedurende je carrière. Met de naderende krapte op de markt, zal er flink gevochten worden om dit senioren ontwerpers/architecten. Zoals Gartner analist Dave Cappuccio opmerkte:

…sit back and think about the most valuable people in the IT organization — those people who always get the projects handed to them, because we know they’ll get things done, regardless. If you look at the strengths they bring to any project, it’s rarely depth of knowledge (the vertical T), but breadth of understanding (all the linkages). Drill-down specialists are available in all disciplines, but the linkag
e masters are hard to find.

(Het gehanteerde T-profiel word ook beschreven in het uitstekende boek: “Leidinggeven aan professionals? Niet doen!” van Mathieu Weggeman.)

Dit alles schetst dus juist een rooskleurig beeld voor de IT-er. Veel kansen om met nieuwe technologie aan de slag te kunnen in omgevingen die groter zijn en worden dan ooit. Het betekend echter wel dat er flink gewerkt moet worden aan het verweven van de juiste skill-sets.

Neem afscheid van het Iejoor complex

Zoals Mike Manos recent aan gaf, hebben veel datacenter managers (en IT-ers) last van het Iejoor complex en gedragen zich als die ‘sombere knuffelezel’ (3:43), als het gaat om cloud computing:

[youtube=http://www.youtube.com/watch?v=GYAEt8y3HHw&w=448&h=252&hd=1]

Dus tijd voor actie en tijd om de kansen te pakken:

[youtube=http://www.youtube.com/watch?v=6VGo-wYSc6w&w=448&h=252&hd=1]

 

Meer Cloud en werk:

Share