Giu 26, 2013 | News ICT
See on Scoop.it – dataumpa
L’ottica complessiva è quella di supportare un ambiente software che permetta alle aziende di passare al cloud computing, ma i più recenti annunci IBM riguardano solidissimo hardware e storage. A IBM Edge 2013 Big Blue annuncia miglioramenti alla linea Smarter Storage di sistemi basati su memoria flash, dischi e nastri, nuove soluzioni di high-performance computing (HPC)e nuove funzionalità per la gamma dei sistemi PureSystems.L’annuncio del nuovo hardware segue da pochi giorni quello dell’acquisizione di SoftLayer e della formazione di una vera e propria business unti dedicata al cloud .
dataumpa‘s insight:
Oltre al lancio della sua nuova famiglia di appliance “all-Flash” IBM FlashSystem, IBM ha annunciato il potenziamento del suo portafoglio di soluzioni storage. Ad esempio, IBM ha aggiunto il supporto per i drive da 4 TB ai suoi sistemi di storage Storwize V7000 e XIV ottenendo così il 33 per cento di capacità in più a parità di spazio, e nuove funzionalità in XIV che consentono di spostare dinamicamente grandi volumi di dati tra i sistemi, attraverso il cloud, senza deteriorare le prestazioni. IBM ha potenziato inoltre la sua tecnologia Easy Tier. La nuova funzione Easy Tier Server permette di spostare dinamicamente i dati, ad esempio memorizzandone le porzioni più frequentemente utilizzate su cassetti di dischi a stato solido (SSD) collegati direttamente a server IBM Power Systems. Quando questi server sono utilizzati in combinazione con IBM DS8870 Storage System, le nuove funzionalità Easy Tier Server possono aumentare le prestazioni fino a cinque volte.
See on www.techweekeurope.it
Giu 26, 2013 | News ICT
See on Scoop.it – dataumpa
Sony ha confermato che PlayStation 4 potrà avvantaggiarsi del cloud computing, ma queste funzioni resteranno completamente opzionali. In questo modo non ci sarà alcun problema per chi desidera usare la console offline.
dataumpa‘s insight:
Sony ha annunciato che PlayStation 4 potrà avvantaggiarsi delle potenzialità offerte dal cloud computing, ma i dirigenti dell’azienda giapponese hanno sottolineato che si tratta di una funzione completamente opzionale e a discrezione degli sviluppatori.
La conferma arriva da Shuhei Yoshida, che in un’intervista con i colleghi di Polygon ha chiarito questo aspetto della nuova PS4. L’obbiettivo è quello di assestare un altro colpo a Microsoft, che in questi giorni ha pubblicizzato in lungo e in largo le funzioni cloud di Xbox One.
See on www.tomshw.it
Giu 26, 2013 | News ICT
See on Scoop.it – dataumpa
Il corso “Hadoop reporting e analisi” registra il 5.000° iscritto in soli nove mesi mentre la domanda delle grandi aziende per soluzioni analitiche Big Data continua a crescere.
dataumpa‘s insight:
Jaspersoft ha annunciato che il proprio corso “Hadoop Reporting and Analysis” suIBM Big Data University, un portale per l’apprendimento online che promuove best practice Big Data per i professionisti del business, ha registrato più di 5.000 studenti a partire dal lancio, avvenuto nel settembre del 2012. Il corso, che offre una certificazione nel reporting e analisi per i professionisti del Big Data che lavorano sulla piattaforma Hadoop, viene offerto su base gratuita. Mentre le aziende hanno sempre di più abbracciato Big Data come una sorgente importante da cui ottenere insight operativo per prendere migliori decisioni di business, c’è stata una considerevole crescita delle richieste di professionisti con conoscenze di analisi dei dati e reporting. Un recente studio di McKinsey & Co. sottolinea l’esistenza di una drammatica carenza di knowledge worker con competenze su Big Data, compresa la mancanza di oltre 150.000 analisti Big Data e di oltre 1,5 milioni di manager in grado di utilizzare Big Data per influenzare le decisioni di business.
See on www.datamanager.it
Giu 26, 2013 | News ICT
See on Scoop.it – dataumpa
Berkeley Lab ha condotto uno studio sui consumi delle soluzioni cloud e ha pubblicato un modello che tutti possono usare online per valutare l’effettiva convenienza delle soluzioni cloud. I risparmi coinvolgono sia le grandi sia le piccole realtà.
dataumpa‘s insight:
I software cloud-based possono far risparmiare una quantità significativa di energia. Il dato emerge da uno studio condotto da Berkeley Lab, che ha realizzato un modello pubblico che chiunque può usare per esaminare l’impatto energetico e delle emissioni di carbonio di vari scenari di cloud computing. I datacenter fanno risparmiare energiaI manager IT possono inserire i dati relativi ai servizi in uso nella propria azienda, come datacenter e tipo di server, e vedere quanta energia si potrebbe risparmiare caricando client mail, CRM e software di produttività via cloud, anziché sui server locali. Stando ai calcoli di Berkeley, se le aziende dovessero effettivamente caricare le applicazioni sopraccitate su cloud ci sarebbe un risparmio di energia pari a quella necessaria per alimentare tutta Los Angeles per un intero anno.Il modello è interessante anche per dare una risposta alle piccole e medie imprese, alla domanda seeffettivamente anche per loro convenga il passaggio al cloud. Il segreto dei datacenter non è nella migliore efficienza, ma nel fatto che i datacenter che ospitano servizi cloud come quelli indicati adottano prodotti di gran lunga più efficienti rispetto a quelli usati in locale dalla maggior parte delle aziende. Non solo: secondo berkeley i risparmi energetici possono essere significativi in particolare per le piccole imprese, che tendono ad avere servizi IT più inefficienti.
See on www.ictbusiness.it
Giu 26, 2013 | News ICT
See on Scoop.it – dataumpa
Sarà una nuvola densa di segreti. Ma ancora non si sa a chi spetterà realizzarla. In gioco c’è un appalto da 600 milioni di dollari. E a contenderselo sono due giganti hi-tech, Amazon e Ibm a uno dei due andrà l’incarico di costruire per conto della Cia un sistema di cloud computing che faccia da ponte tra Langley e il resto dell’intelligence Usa.
dataumpa‘s insight:
In un momento in cui i colossi della Silicon Valley sono impegnati a prendere le distanze dal Datagate, la gara tra Ibm e Amazon dimostra (semmai ve ne fosse ancora bisogno) quanto sia forte in realtà il legame tra le multinazionali del settore informatico e il governo statunitense. In palio un contratto della durata iniziale di quattro anni. Contratto che in prima battuta era stato vinto dall’azienda di e-commerce di Jeff Bezos . Solo che poi Big Blue ha presentato ricorso, ottenendo la riapertura dell’appalto. Risultato? La Central Intelligence Agency ha ora sessanta giorni di tempo per decidere a chi assegnare il progetto. Intanto una cosa è certa. Se fino a qualche tempo fa il governo Usa si rivolgeva in questi casi a produttori del calibro di Hewlett-Packard o appunto Ibm, nell’era del cloud computing i venditori di hardware che in passato dominavano incontrastati il mercato non godono più della considerazione di una volta (anche perché un’azienda oggi non è più costretta a costruire un proprio data center per gestire i dati). Un cambiamento che va a beneficio di compagnie come Amazon, più giovani e “leggere”, in condizione peraltro di offrire un servizio di analisi più accurato sul versante Big Data.
See on www.huffingtonpost.it
Giu 26, 2013 | News ICT
See on Scoop.it – dataumpa
Il portafoglio di soluzioni ulteriormente ampliato accelera l’adozione dei Big Data e la monetizzazione delle informazioni
HP ha annunciato l’espansione del proprio portafoglio di soluzioni per gli ambienti Big Data, pensato per consentire alle aziende di ottenere una maggiore efficienza nell’analisi dei loro dati e di produrre risultati in tempo reale.
dataumpa‘s insight:
Secondo i dati di un’indagine condotta per conto di HP, quest’anno quasi il 60% delle aziende intervistate intende destinare almeno il 10% dei propri budget per l’innovazione a progetti Big Data. Comunque, l’indagine ha anche rilevato che più di un’impresa su tre ha fallito la propria iniziativa Big Data. Il rinnovato portafoglio di HP offre i servizi e le soluzioni necessarie per favorire la riuscita dell’implementazione di queste iniziative e per consentire alle aziende di gestire i dati in continua crescita in termini di volume, varietà, velocità e vulnerabilità, che spesso causano il fallimento di tali iniziative.
See on www.datamanager.it