Categorie
Blog

KUBIFY: UN NUOVO MODO DI FARE HOSTING

KUBIFY: UN NUOVO MODO DI FARE HOSTING

Kubify è una soluzione di hosting innovativa, gestita tramite Container Kubernetes. Rispetto ad una soluzione di virtualizzazione tradizionale, i container garantiscono la massima disponibilità del servizio, consentono di raggiungere performance elevate e forniscono numerosi vantaggi alle aziende che li utilizzano.

Cos’è Kubify?

Kubify è una soluzione di hosting PaaS (Platform as a ServiceMultidatacenter e ibrida, che utilizza l’efficienza dello storage Azure e la potenza di calcolo e la scalabilità dei nostri Datacenter per assicurare la massima affidabilità e sicurezza. Una delle caratteristiche che differenzia Kubify da tutti gli altri prodotti sul mercato è che si tratta di un servizio “chiavi in mano” completamente gestito: i clienti non dovranno più occuparsi dell’infrastruttura dal punto di vista tecnico, ma avranno a disposizione una piattaforma “tutto incluso” su cui sviluppare le proprie applicazioni in maniera semplice e performante.

I vantaggi di Kubify

Oltre ai vantaggi derivanti dall’utilizzo dei container, il nostro servizio di hosting PaaS Kubify include una serie di servizi aggiuntivi che garantiscono ai business la massima produttività.

  • Ambienti GIT, sviluppo e testing gratuiti: la nostra soluzione include la fornitura di un ambiente GIT, oltre alla possibilità di attivare ambienti gratuiti di sviluppo e testing per verificare il proprio progetto. Questa feature consente di effettuare il deploy delle applicazioni in maniera semplice e totalmente automatizzata.
  • Servizio di back-up: Kubify comprende un servizio di back-up con frequenza oraria per garantire ai clienti la più totale sicurezza di dati e processi aziendali. Le soluzioni di back-up sono completamente personalizzabili sulle esigenze di ogni singolo business.
  • Syntehetic Monitoring: mettiamo a disposizione dei nostri clienti uno strumento di Synthetic Monitoring con l’obiettivo di verificare le performance del sito web navigandolo con browser reali da varie regioni d’Italia. Il servizio di synthetic monitoring genera insight fondamentali per migliorare le prestazioni web e fornire agli utenti esperienze di navigazione di alto livello.
  • Supporto H24 e SLA 99,99%: Kubify assicura la massima affidabilità del servizio anche in caso di picchi di traffico, con uno SLA pari al 99,99%. Inoltre il nostro team di specialisti è disponibile h24 per risolvere possibili problematiche e garantire l’uptime del sito.
  • Log dashboard e security control: per garantire la massima sicurezza del sistema forniamo un servizio di Security Control che permette di monitorare efficacemente i propri container. Mettiamo a disposizione del cliente una dashboard per l’archiviazione e la consultazione dei log, tramite la quale è possibile individuare eventuali attacchi informatici e agire tempestivamente.
  • Soluzioni CDN: Kubify include soluzioni di Content Delivery Network di alto livello, studiate per adattarsi istantaneamente alle condizioni di Internet e ottimizzare la User Experience dei clienti con performance e sicurezza senza precedenti. Vuoi migliorare le prestazioni web? Le soluzioni CDN sono ciò che fa per te: accellera il tuo sito, aumenta le revenue e fai crescere il tuo business a livello globale.

Sei interessato alla soluzione Kubify hosting PaaSPrenota subito una consulenza gratuita!

 
Facebook
Twitter
LinkedIn

Contattaci

Compila il form e un nostro esperto ti ricontatterà entro 24 ore: non vediamo l’ora di conoscerti!

Categorie
Blog

LA COLOCATION È MORTA?

LA COLOCATION È MORTA?

Negli ultimi tempi abbiamo assistito ad una costante evoluzione delle tecnologie IT e ad una crescita esponenziale dell’adozione di soluzioni Cloud da parte delle aziende. Ma la “tradizionale” colocation che fine ha fatto? Nelle prossime righe vedremo prima di tutto che cosa si intende esattamente con il concetto di colocation, come si è evoluto il mercato IT negli ultimi anni e quali sono le aspettative future riguardo a questo servizio, che sembra essere messo da parte sempre di più in favore di soluzioni virtuali e tecnologiche all’avanguardia.

Cos’è la colocation?

Il termine Colocation (o Housing) si riferisce a quel servizio erogato da provider specializzati che fornisce alle aziende uno spazio fisico dove allocare il proprio sistema IT. Solitamente l’infrastruttura del cliente (server, router, switch e tutto quello che fa parte del sistema informativo aziendale) viene disposta all’interno di Data Center o Server Farm appositi in cui viene garantita la manutenzione e la gestione degli aspetti infrastrutturali da parte di personale tecnico esperto. In questo modo le aziende possono ottimizzare i costi IT e beneficiare di uno staff specializzato per tutto quello che riguarda il mantenimento delle componenti hardware della propria infrastruttura, oltre che dimenticare tutte le problematiche relative a connettività e alimentazione. Allo stesso tempo, con la colocation il cliente conserva autonomia e controllo sul proprio sistema IT.

L’evoluzione del mercato IT

Negli ultimi anni sembra che il Cloud Computing abbia conquistato il mercato dell’Information Technology, lasciando sempre meno spazio alla colocation. I data center di piccole dimensioni infatti, non riescono più a stare al passo con soluzioni all’avanguardia e con richieste sempre maggiori a livello di competitività e SLA. Ma la colocation non è morta, anzi. Le statistiche indicano che le imprese utilizzano ancora ampiamente il servizio e che il mercato dedicato alla colocation, che attualmente vale miliardi di dollari, è destinato a crescere. Ci troviamo di fronte ad un apparente paradosso. Come mai sembra che il Cloud abbia saturato il mercato IT e che non ci sia più spazio per la colocation? Banalmente per le caratteristiche stesse dei servizi Cloud. Con la crescita delle soluzioni Cloud Computing aumenta anche la necessità di luoghi in cui ospitare i server bare-metal. Pertanto, ad un incremento di servizi sulla cosiddetta Nuvola, corrisponde una maggiore richiesta di colocation.

Un’altra ragione fondamentale è che, sebbene sia una tecnologia all’avanguardia, il Cloud non è adatto a qualsiasi azienda. A seconda delle specifiche esigenze, ogni business può adattarsi meglio alle caratteristiche di una o dell’altra soluzione. Solitamente le imprese che devono dotarsi di una nuova infrastruttura prediligono il Cloud per beneficiare di features di alto livello in termini di scalabilità e performance del sistema. Ma vi sono anche aziende nate con infrastrutture on-premise alle quali investire nuovamente “in casa” non conviene più a causa degli elevati costi di mantenimento e gestione, e che trovano nella colocation la soluzione ideale per le loro esigenze. La colocation può essere preferibile anche per quelle attività che devono mantenere un alto livello di sicurezza e controllo sulla propria infrastruttura e sui propri dati. Il Cloud Computing rappresenta sicuramente la soluzione di punta nel mercato IT, ma non è adatta a tutte le imprese poichè ogni business ha esigenze totalmente differenti e specifiche.

Prospettive future

Il mercato sembra andare verso una direzione ben precisa: una richiesta sempre maggiore di performance di alto livello, SLA elevati e supporto tecnico avanzato. Anche i provider di colocation devono tenere conto di queste necessità emergenti. Oltre al semplice affitto di spazi fisici per i server, la colocation dovrà fornire expertise di alto livello per gestire infrastrutture sempre più complesse e diversificate e mantenere la competitività sul mercato. Ed è proprio la competitività ad avere un valore fondamentale negli sviluppi futuri del settore. Grandi Data Center in grado di far fronte a richieste complesse che le piccole realtà non possono più sostenere, utilizzo di energia green, distribuzione geografica, SLA trasparenti e ben definiti: queste saranno le caratteristiche essenziali della colocation del futuro.

Vuoi conoscere meglio le caratteristiche del servizio? Scopri tutti i vantaggi della colocation e richiedi una consulenza completamente gratuita con i nostri esperti!

New call-to-action
Categorie
Blog

IL CLOUD OPEN SOURCE: COS’È OPENSTACK?

IL CLOUD OPEN SOURCE: COS’È OPENSTACK?

Oggi parliamo di OpenStack: che cos’è e come funziona?

OpenStack è un software di Cloud Management open source gratuito, nato da un progetto di Red Hat e della NASA nel 2010. OpenStack consente di gestire pool di risorse computazionali, storage e networking attraverso un’unica piattaforma, dando la possibilità ai suoi utilizzatori di costruire e gestire Cloud pubblici e privati. Si tratta della piattaforma più popolare a livello globale, con oltre 150 aziende del calibro di Yahoo e Dell e più di 4000 sviluppatori attivi (CloudStack, la sua alternativa più vicina, ne ha poco più di 300), che contribuiscono alla crescita del progetto e al suo miglioramento.

OpenStack è composto da una serie di moduli che permettono di creare e gestire una serie di ambienti tra cui Cloud privati, Cloud pubblici e Container. I principali componenti del software son quelli relativi a computing, storage e networking e costituiscono il cuore del progetto. Ad essi si possono integrare a piacimento differenti risorse aggiuntive per creare ambienti Cloud personalizzati e pronti per il deployment. Di seguito descriveremo i componenti principali della piattaforma.

Componenti e funzionalità

Nova: è la componente che gestisce la computazione. Mette a disposizione macchine virtuali in tempo reale.
Swift: è un sistema di Object Storage scalabile e ridondante, un’architettura che gestisce i dati come fossero “oggetti”.
Neutron: è il componente relativo al networking e serve per gestire le risorse di rete e gli indirizzi IP.
Cinder: fornisce uno storage a blocchi persistente
Glance: costituisce la repository di immagini, le archivia e le recupera dai dischi delle macchine virtuali da diverse posizioni
Keystone: questo modulo gestisce le procedure di autenticazione ed autorizzazione del software
Horizon: è la dashboard di OpenStack, l’interfaccia grafica con cui sia utenti che amministratori possono accedere alla piattaforma e gestire le risorse Cloud.
Magnum: è il componente per la creazione e gestione dei container, alternativa ai classici hypervisor.

OpenStack è una piattaforma molto “elastica” che permette di modificare in tempo reale le risorse allocate, ma rimane ancora uno strumento piuttosto complesso da utilizzare per cui è necessaria una formazione tecnica adeguata.

 
New call-to-action
Categorie
Blog

ALLA SCOPERTA DEL CLOUD: IAAS, PAAS, SAAS

ALLA SCOPERTA DEL CLOUD: IAAS, PAAS, SAAS

Che differenza c’è tra IaaS, PaaS e SaaS?

Il Cloud è una realtà ormai presente nella maggior parte delle aziende italiane. Le imprese hanno iniziato ad utilizzare la “nuvola” per innumerevoli ragioni. Le principali? Risparmiare sui costi IT, ottimizzare spese e consumi, affidare la gestione nelle mani di professionisti esperti per potersi concentrare sullo sviluppo del proprio core-business, utilizzare modalità di pagamento e fatturazione più convenienti, migliorare le performance, investire sulla sicurezza e proteggere al meglio i propri sistemi e dati, fornire ai propri clienti tecnologia all’avanguardia, e chi più ne ha più ne metta.

Ciò che vogliamo sottolineare oggi è la presenza di differenti tipi di Cloud Computing. In particolare parleremo di IaaS, PaaS e SaaS, i servizi Cloud più popolari sul mercato IT, in grado di semplificare notevolmente la vita delle società e di portare una reale innovazione al business.

Infrastructure as a Service (IaaS)
Alla base del Cloud Computing troviamo il servizio IaaS. Con questo modello il cliente ha la possibilità di accedere direttamente all’infrastruttura e di eseguire alcune attività. Il provider Cloud mette a disposizione del cliente la macchina virtualizzata (o le macchine, se si tratta di un’infrastruttura più complessa) e permette di utilizzare il modello pay-per-use, secondo il quale vengono fatturate solo le risorse virtuali effettivamente utilizzate. A questo livello quindi, il cliente ha l’accesso e il controllo dell’infrastruttura Cloud.

Platform as a Service (PaaS)
Il modello PaaS è invece caratterizzato dalla fornitura di una piattaforma Cloud sulla quale il cliente può sviluppare e distribuire le proprie applicazioni. In questo caso l’utente non ha il controllo dell’infrastruttura Cloud ma può configurare e gestire le proprie applicazioni sulla piattaforma fornita dal provider in totale libertà, senza doversi preoccupare di gestire il layer sottostante. Per le sue caratteristiche, il servizio PaaS si configura come la soluzione più utilizzata dalle web agency e dagli sviluppatori.

Software as a Service (SaaS)
SaaS è un modello di distribuzione di software tramite web. Anche qui il cliente non ha nè accesso nè possibilità di controllare l’infrastruttura Cloud. Si tratta di una soluzione chiavi in mano per utilizzare i software in modo semplice ed evitare tutte le complicazioni relative alla gestione del sistema IT.

Quale soluzione Cloud è più adatta per il tuo business? Prenota una consulenza gratuita e i nostri esperti ti guideranno nella scelta!

New call-to-action
Categorie
Blog

CLOUD BACKUP VS CLOUD OBJECT STORAGE

CLOUD BACKUP VS CLOUD OBJECT STORAGE

Qual è la differenza tra Cloud backup e Cloud object storage?

Oggi parleremo di Cloud backup e Cloud object storage. Entrambi sono sistemi in Cloud che hanno lo scopo di archiviare e mettere in sicurezza i dati aziendali, ma presentano alcune differenze. Vediamo insieme che cosa sono il Cloud backup e il Cloud object storage e quali sono i vantaggi specifici dell’una e dell’altra soluzione. In questo modo, valutando le esigenze particolari del tuo business, potrai comprendere quale servizio si adatta meglio alla tua azienda.

Cloud backup

Il servizio di Cloud backup consente di creare e programmare backup automatizzati. E’ la soluzione ideale per mantenere e gestire in modo totalmente sicuro e semplice i propri backup, nel rispetto delle politiche di disaster recovery specifiche di ogni azienda. I Cloud backup posso essere schedulati secondo le proprie esigenze, scegliendo la frequenza più adatta. Possono avere cadenza oraria, giornaliera o settimanale oppure possono essere programmati secondo orari completamente personalizzati. I dati sono custoditi in piena sicurezza presso i data center, con accesso protetto ed esclusivo.

Vantaggi:
  • Automatico: i backup sono programmabili a qualsiasi orario e con qualsiasi frequenza
  •  Semplice da usare: le operazioni sono facilmente gestibili dall’interfaccia grafica
  • Sicuro: il servizio di Cloud backup garantisce il massimo degli standard di sicurezza nel trasferimento e nel mantenimento dei dati
  • Veloce: per la deduplica e la compressione dei dati vengono utilizzati i sistemi di backup più avanzati disponibili sul mercato
  • Economico: grazie all’utilizzo di tecnologie avanzate, il servizio di Cloud backup consente di risparmiare rispetto ai sistemi tradizionali
  • Multipiattaforma: i Cloud backup sono disponibili sia per server in Cloud che server fisici, sia che siano ospitati presso data center esterni che presso i propri uffici
Per quali esigenze?

Il Cloud backup è la soluzione migliore per chi ha l’esigenza di archiviare e mantenere i propri dati aziendali in luoghi esterni e distinti. Schedulabile, personalizzabile e automatico, il Cloud backup sfrutta un sistema in grado di ottimizzare tempi e spazio occupato e di eseguire un ripristino rapido in caso di eventuali problemi. Inoltre, il servizio è in grado di adattarsi immediatamente a nuove esigenze di spazio.

Cloud object storage

Il servizio di Cloud object storage è basato sul modello IaaS (Infrastructure as a Service) e permette di creare liberamente spazi di archiviazione in cui memorizzare i propri dati. Mette in sicurezza i dati in modo totalmente affidabile e flessibile, fornendo uno storage per poter distribuire qualsiasi tipo di file ai propri clienti. Con la soluzione di Cloud object storage i dati vengono memorizzati in più copie, su più dischi e più server, garantendo sicurezza e performance. E’ un servizio basato sul protocollo HTTP/FTP e consente di accedere ai dati comodamente da qualsiasi dispositivo. Il Cloud object storage si distingue dai servizi tradizionali per essere un sistema di archiviazione dati immediato, economico e scalabile.

Vantaggi
  • Flessibile: spazio illimitato, così come la quantità di dati memorizzabile, il numero di richieste e il traffico disponibile
  • Affidabile: la tecnologia utilizzata garantisce il massimo dell’affidabilità
  • Pay-per-use: possibilità di pagare solamente le risorse effettivamente utilizzate secondo il modello pay-per-use
  • Localizzato: possibilità di scegliere l’area geografica in cui archiviare i dati
  • Compatibile: il servizio garantisce la massima portabilità e compatibilità
  • Protocollo FTP: possibilità di creare dei percorsi sul proprio pc per accedere direttamente ai dati utilizzando il protocollo FTP
Per quali esigenze?

Il servizio di Cloud object storage è ideale per chi ha la necessità di archiviare dati non strutturati, come documenti, media e dati generati automaticamente (ad esempio da sensori, telecamere ecc.). Grazie alle sue caratteristiche permette di accedere velocemente all’archivio tramite una semplice connessione browser e usando qualunque dispositivo. Inoltre, con il Cloud object storage è possibile condividere file di grandi dimensioni senza appesantire le mail e modificare in modo istantaneo lo spazio di archiviazione disponibile secondo necessità.

Vuoi conoscere meglio le caratteristiche di Cloud backup e Cloud object storageCompila il form e sarai contattato da un nostro specialista per una consulenza gratuita!

 
New call-to-action
Categorie
Blog

CLOUDCONF 2018: L’EVENTO DELL’ANNO SUL CLOUD COMPUTING

CLOUDCONF 2018: L’EVENTO DELL’ANNO SUL CLOUD COMPUTING

Giovedì 12 aprile – Centro Congressi Lingotto, Torino

CloudConf, l’evento più atteso dell’anno sul Cloud Computing arriva a Torino il prossimo giovedì 12 aprile, presso il Centro Congressi Lingotto di via Nizza 208. Una giornata dedicata alle novità in ambito Cloud per tutti gli appassionati, i professionisti e le aziende del settore. Sono previsti oltre 500 partecipanti e 18 speaker internazionali provenienti da realtà di spicco tra cui Amazon Web Services, Google Compute Cloud, Elastic, IBM, InfluxDB, Clever Cloud e RedHat. Gli argomenti trattati vanno dal Machine Learning alla tecnologia Serverless, fino alle soluzioni Container.

E’ un’ottima occasione per aggiornarsi sulle tendenze dell’anno in tema Cloud Computing e per sviluppare nuove collaborazioni. Tra i vari speech, infatti, vi saranno numerosi coffee break in cui sarà possibile scambiare opinioni e idee con gli altri partecipanti e visitare gli stand delle aziende sponsor. La conferenza inizierà alle ore 9.00 con il caffè di benvenuto e terminerà alle ore 17.00 con un aperitivo finale, ideale per fare networking e confrontarsi sui temi trattati in aula.

Anche quest’anno Criticalcase è orgoglioso di partecipare al CloudConf come main sponsor: passa al nostro stand e scopri le offerte speciali riservate ai partecipanti. Ti aspettiamo giovedì, non mancare!

Non hai ancora i ticket? Acquista gli ultimi posti ora e per ulteriori dettagli visita il sito ufficiale di CloudConf 2018

 
Facebook
Twitter
LinkedIn

Contattaci

Compila il form e un nostro esperto ti ricontatterà entro 24 ore: non vediamo l’ora di conoscerti!

Categorie
Blog

8 TOP CLOUD TREND PER IL 2018

8 TOP CLOUD TREND PER IL 2018

Cosa dobbiamo aspettarci dall’anno nuovo sul fronte del Cloud Computing?

Ormai l’adozione di soluzioni di Cloud Computing da parte delle aziende è una pratica nella norma, ma questo non significa che il mondo del cloud sia statico, anzi. Questo settore dell’IT è in continua evoluzione e mutamento. Nel 2018 le tendenze che si affermeranno sono diverse: ecco 8 top trends del cloud computig per il 2018 secondo gli esperti.

1. Multicloud e open-source
Nel 2018 le soluzioni multiclod saranno sempre più utilizzate. La scelta di usare più ambienti e più provider può essere dettata da differenti ragioni. A volte si tratta semplicemente di questioni “politiche”, poichè alcune aziende non possono permettersi di affidarsi ad un unico provider.

Altre volte invece le soluzioni, i costi e la qualità dei servizi offerti da altri vendor sono più vantaggiosi. Per beneficiare di questi ed altri vantaggi gli strumenti open-source diventano fondamentali. Con una tecnologia multicloud infatti, l’open source è l’unica soluzione in grado di evitare i vincoli e le incompatibilità tra i diversi ambienti Cloud presenti all’interno della stessa infrastruttura.

2. Passaggio da uso ad ottimizzazione del Cloud
Se prima la questione era usare o meno il Cloud computing per il proprio business, ora che questa tecnologia si è diffusa e consolidata lo scopo delle aziende è invece quello di ottimizzare la propria infrastruttura. L’ottimizzazione coinvolge vari aspetti: dall’architettura, alla sicurezza, ai dati. In particolare, gli esperti prevedono che sarà proprio l’ottimizzazione dei dati a rivestire un ruolo di primaria importanza nel corso del nuovo anno.

3. Crescita del Cloud ibrido
Le infrastrutture si espanderanno verso modelli di Cloud ibrido. Diversi elementi, dall’affidabilità alla disponibilità e prossimità delle applicazioni, richiederanno ambienti ibridi. I dati aziendali e le applicazioni sono sempre più divise tra piattaforme in casa, Iaas, SaaS, PaaS e IoT. In altre parole, il modello del Cloud ibrido diventerà un dato di fatto.

4. Container, orchestrazione e microservizi
Gli esperti dicono che container, microservizi e orchestrazione saranno presto mainstream. I container e tutto ciò che vi è relazionato sono argomenti caldi tutt’ora. Si prevede quindi una massiccia adozione di queste soluzioni innovative per il prossimo anno. Perchè questi tre concetti vanno di pari passo? Container e microservizi sono due soluzioni che vanno a braccetto, mentre i tool di orchestrazione sono fondamentali per gestire al meglio questo tipo di infrastruttura. Inoltre strumenti di orchestrazione come Kubernetes (vedi articolo precedente!) sono molto utili negli ambienti ibridi, poichè sono in grado di spostare container e applicazioni tra i vari ambienti in modo semplice e veloce.

5. AI e Cloud security
L’intelligenza Artificiale può essere usata per obiettivi di sicurezza in differenti maniere, sia all’interno che all’esterno del Cloud. Per quanto riguarda le infrastrutture IT, la sicurezza è una componente fondamentale. L’intelligenza artificiale può contribuire a rendere più sicuri gli ambienti Cloud, aiutando a prevenire e a combattere gli atti di hackeraggio che minacciano l’infrastruttura e a dare una risposta più rapida e reattiva rispetto ai sistemi di sicurezza tradizionali.

6. Blockchain
Blockchain è una tecnologia creata per supportare i bitcoin e altre criptovalute e può archiviare grandissime quantità di dati utilizzando un network di computer invece che un singolo server locale. Blockchain offre diverse feature che supportano la security, come immutabilità e trasparenza dei dati e autonomia di gestione. Teoricamente questa tecnologica funziona con tutti tipi di transazioni online relative a denaro, beni e proprietà ed ha un ottimo potenziale per supportare le transizioni finanziare online, dalla raccolta delle tasse all’invio di soldi in altre nazioni, laddove risulta difficoltoso attraverso le banche.

7. Virtualizzazione dei dati
La virtualizzazione dei dati è un termine usato per descrivere un metodo di data management che permette alle applicazioni di recuperare e manipolare i dati senza possederne i dettagli tecnici (come localizzazione e formattazione). E’ in grado di fornire dati in tempo reale da una varietà di fonti a molteplici utenti. E’ un modello semplice da capire, creare e mantenere. Lo scopo principale della virtualizzazione dei dati è quello di fornire un semplice accesso ai dati da differenti fonti attraverso un singolo punto di contatto, consentendo all’utente di accedere alle applicazioni senza conoscerne l’esatta posizione. Recentemente è stato adattato al Cloud e nel 2018 verrà usato sempre di più.

8. Aumento della qualità di internet e 5G
Così come cresce di giorno in giorno la quantità di dati che viene generata e archiviata in tutto il mondo, così crescono le aspettative dei consumatori verso connessioni internet più veloci. Molti team stanno lavorando sul miglioramento della rete internet e presto potremo usufruire del network 5G. Una migliore qualità di rete porterà ad alte aspettative anche per quanto riguarda le applicazioni e i servizi, che dovranno essere sempre più responsivi e veloci.

New call-to-action
Categorie
Blog

CONTAINER VS VIRTUAL MACHINE

Container Vs Virtual Machine: è vera sfida?

Si parla con sempre maggiore frequenza dei container, la tecnologia di virtualizzazione che sta prendendo velocemente piede in ambito IT, soprattutto in ottica di cloud computing.

Rimandando all’articolo introduttivo ogni considerazione di base circa i container, molti operatori si interrogano circa le differenze tra container e virtual machine, il metodo di virtualizzazione finora più utilizzato nel settore. Ci si interroga se siano davvero differenti e se i container non siano “semplice virtualizzazione”. Approfondendo, si arriva poi a contrapporle: container vs virtual machine è diventato un tema piuttosto comune.

Oggi, vedremo le principali differenze tra container e virtual machine e chiariremo ogni dubbio.

Container e Virtual Machine, quali differenze?

La tecnologia dei container può essere considerata figlia della virtualizzazione, una sorta di “nuova generazione” che introduce innovazioni importanti alla tecnica tradizionale.

La differenza principale tra le due tecnologie è che nei container non esiste l’hypervisor (cuore pulsante dell’architettura delle macchine virtuali), ma è presente un sistema che “impacchetta” le applicazioni/servizi applicativi in unità logiche indipendenti, dette appunto container. Il sistema crea un livello di astrazione fra i container e il sistema operativo ospitante e gestisce l’attivazione e la disattivazione dei contenitori.

Un’altra grande differenza è che la virtualizzazione permette di eseguire più sistemi operativi contemporaneamente in un singolo sistema, mentre i container condividono lo stesso kernel del sistema operativo e isolano i processi applicativi dal resto dell’infrastruttura.

Piuttosto che contrapporre le tecnologie, parlando di container vs macchine virtuali, esse andrebbero adottate sinergicamente, ognuna con una determinata finalità, con elementi di forza e inevitabili limiti.

I vantaggi dei container, punto per punto

Ponendoci dal punto di vista dei container, ecco i principali benefici della tecnologia.

  • Deployment semplificato: la tecnologia dei container permette di semplificare il deployment di qualsiasi applicazione poiché essa viene “impacchettata” in un singolo componente distribuibile e configurabile con una sola linea di comando, senza doversi preoccupare della configurazione dell’ambiente di esecuzione;
  • Disponibilità rapida: virtualizzando solamente il sistema operativo e le componenti necessarie all’esecuzione dell’applicazione, invece che l’intera macchina, i tempi di avvio di un container si riducono notevolmente rispetto a quelli di una virtual machine;
  • Ampia portabilità: i container possono essere creati e replicati in qualsiasi ambiente in modo semplice e veloce. Si tratta di un grande vantaggio a livello di software life cycle poiché, per esempio, i container possono essere copiati molto velocemente per creare gli ambienti di sviluppo, test e produzione senza la necessità di operare configurazioni;
  • Controllo più granulare: i container possono “pacchettizzare” un’intera applicazione ma anche solo un singolo componente e servizio. In questo modo, consentono agli sviluppatori di suddividere ulteriormente le risorse in microservizi, garantendo così un maggiore controllo sull’eseguibilità delle applicazioni e un miglioramento delle performance dell’intera infrastruttura;
  • Leggerezza: un grande punto di forza dei container è che sono molto più “leggeri” delle virtual machine perché non devono attivare un loro sistema operativo dedicato. Di conseguenza, sono molto più veloci da attivare e disattivare e ideali per quegli ambienti in cui il carico di elaborazione varia sensibilmente e in maniera imprevedibile.

Per estendere e approfondire ulteriormente la panoramica sui benefici dei container, ti indirizziamo all’articolo dedicato.

Container vs Virtual Machine: anche i container hanno dei limiti

Anche i container hanno le loro debolezze. Una di queste è rappresentata dalla difficoltà di gestione quando il numero di container diventa molto elevato. Al contrario, le virtual machine sono più semplici da amministrare perché raramente raggiungono grandi quantità, come invece può accadere facilmente con l’utilizzo dei container.

Un altro punto debole è proprio la condivisione dello stesso kernel del sistema operativo. A livello teorico, uno dei container potrebbe compromettere la stabilità del kernel, influenzando anche gli altri.

In conclusione, non c’è sfida tra i due

Per concludere possiamo dire che non si tratta di due soluzioni antitetiche: parlare di container vs virtual machine ha poco senso. A seconda dello scopo, può essere più adatta la virtualizzazione o la tecnologia dei container. Ad esempio, la leggerezza dei container si scontra con l’impossibilità di avere più sistemi operativi nello stesso sistema. Allo stesso modo, con risorse e capacità limitate, una soluzione leggera come quella dei container è sicuramente più idonea e performante rispetto a un’infrastruttura composta da virtual machine.

Al giorno d’oggi, pensare al cloud journey o alla modernizzazione applicativa senza avere a che fare con la virtualizzazione di container e virtual machine è del tutto impossibile. Tuttavia, si tratta di temi complessi, che richiedono competenze specialistiche, strumenti adeguati e una solida infrastruttura su cui lavorare. In Criticalcase, supportiamo da anni le aziende nei percorsi di modernizzazione, e abbiamo sviluppato un bouquet di servizi finalizzati a realizzare il massimo valore del cloud.

Se siete interessati a portare innovazione nella vostra azienda, possiamo intraprendere un percorso insieme. Qui, tutte le informazioni per entrare in contatto con noi.

Perché quantificare i costi del passaggio al cloud può rivelarsi difficile?

Scopri come gestire al meglio la tua piattaforma cloud ed evita extra budget indesiderati!

Add a date

White paper

Categorie
Blog

I VANTAGGI DEI CONTAINER

I VANTAGGI DEI CONTAINER

Perchè usare i container?

Negli scorsi articoli abbiamo spiegato che cosa sono i container e abbiamo visto brevemente qual è la storia di questa nuova tecnologia. Oggi ci soffermeremo su uno degli aspetti più interessanti e vedremo insieme quali sono i vantaggi dell’uso dei container per le aziende.

In particolare, abbiamo individuato 6 benefici dei container che rendono l’infrastruttura più flessibile ed efficiente.

1.Isolamento
Un grande vantaggio della tecnologia dei container è l’isolamento delle risorse: memoria, processi, dispositivi e rete sono virtualizzati a livello di sistema operativo, e le applicazioni isolate l’una dall’altra.

Ciò significa che non bisogna preoccuparsi di conflitti di dipendenze o risorse contese, poichè ogni applicazione ha dei limiti definiti di utilizzo delle risorse. Inoltre, grazie all’isolamento, il livello di protezione è maggiore.

2. Aumento della produttività
Uno dei benefici dei container è la possibilità di ospitare una grande quantità di contenitori anche sul proprio PC, avendo sempre a disposizione un ambiente di deploy e test adatto a ciascuna applicazione, operazione che risulterebbe molto più complessa a livello di virtual machine. In particolare questa tecnologia determina un aumento della produttività degli sviluppatori, grazie all’eliminazione delle dipendenze e dei conflitti tra i differenti servizi. Ogni contenitore può ospitare un’applicazione o un singolo componente dell’applicazione, e, come dicevamo nel punto 1, è isolato rispetto agli altri. In questo modo gli sviluppatori possono dimenticarsi delle sincronizzazioni e delle dipendenze per ogni servizio, così come sono liberi di eseguire gli aggiornamenti senza doversi preoccupare di possibili conflitti tra i componenti.

3. Deployment semplificato e tempi di avvio più rapidi
Ogni container include non solo l’applicazione/servizio ma anche tutto il pacchetto utile per eseguirlo, semplificando ogni operazione di deployment e facilitando la distribuzione su differenti sistemi operativi senza ulteriori sforzi di configurazione. Inoltre, virtualizzando solamente il sistema operativo, i tempi di avvio si accorciano notevolmente rispetto alle VM.

4. Ambiente uniforme
Grazie alla forte standardizzazione dell’approccio, i container consentono la portabilità delle risorse, riducendo le problematiche legate allo spostamento delle applicazioni attraverso il ciclo di sviluppo, test e produzione. I container possono essere distribuiti su qualunque risorsa di calcolo indipendentemente da configurazioni, SO o hardware. Questo significa che le applicazioni possono essere distribuite in modo semplice e affidabile indipendentemente dall’ambiente. Non è necessario configurare manualmente i server e le nuove features possono essere rilasciate con maggiore facilità.

5. Efficienza operativa
I container permettono di eseguire più applicazioni sulla medesima istanza e di specificare la quantità esatta di risorse che devono essere usate, garantendo un’ottimizzazione delle stesse. I contenitori occupano minor spazio su disco rispetto alle VM e rendono il sistema più agile, migliorando l’efficienza operativa, lo sviluppo e la gestione delle applicazioni.

6. Controllo di versione
La tecnologia dei container permette di gestire le versioni del codice dell’applicazione e delle sue dipendenze. E’ possibile tenere traccia delle versioni di un container, analizzare le differenze tra di esse ed eventualmente tornare a versioni precedenti.

I vantaggi dei container sono molteplici: si tratta di una soluzione tecnologica avanzata in grado di migliorare la gestione delle applicazioni e di rendere più leggero e performante il sistema architetturale. Molti ne parlano come di un’alternativa alle più note virtual machines, ma quali sono le differenze tra VM e container? Ne parliamo nel prossimo post!

Vorresti usare i container ma non sai da dove iniziare? Scopri le nostre SOLUZIONI CONTAINERe richiedi una consulenza gratuita senza impegno con i nostri esperti!

 
Facebook
Twitter
LinkedIn

Contattaci

Compila il form e un nostro esperto ti ricontatterà entro 24 ore: non vediamo l’ora di conoscerti!

Categorie
Blog

CONTAINER: DALLE ORIGINI FINO A DOCKER

CONTAINER: DALLE ORIGINI FINO A DOCKER

Come nasce la tecnologia dei container?

Nello scorso post abbiamo parlato di container, una tecnologia sempre più utilizzata ultimamente in ambito IT e Cloud Computing, la cui origine non è però così recente come si può pensare. Vediamo in breve la storia dei container: dall’idea su cui si basa questa tecnologia fino alle soluzioni più recenti (Docker e simili).

Il concetto alla base dei container nasce già nel lontano 1979 con chroot UNIX, un sistema in grado di fornire ai processi degli spazi isolati all’interno dello storage in uso. Per questa peculiare caratteristica, Chroot può essere considerato una sorta di precursore degli attuali container.

Solo una ventina di anni dopo nasce una soluzione più vicina a quella dei container in uso oggigiorno: si tratta di FreeBSD Jail, introdotta nel 2000. FreeBSD Jail consentiva di ripartire il sistema in più sottosistemi isolati chiamati jail. Rispetto a chroot, la funzionalità aggiuntiva di questi ambienti era la possibilità di isolare anche i file di sistema, gli utenti e la rete, rendendoli molto più sicuri. La soluzione aveva però alcune debolezze in termini di implementazione e presto venne sostituita da metodi più efficienti.

L’anno dopo, nel 2001, viene sviluppata una soluzione simile a Jail chiamata Linux VServer, capace di partizionare le risorse di un computer nei cosidetti “security context”, all’interno dei quali vi era un sistema VPS (Virtual Private Server). Il progetto VServer, lanciato da Jacques Gèlinas, getta le basi per la creazione di più spazi utente controllati in Linux e, nel corso del tempo, con l’inserimento di tecnologie ed elementi aggiuntivi, si arriverà allo sviluppo degli attuali container Linux.

Grazie allo sviluppo di nuove tecnologie e ai progressi compiuti in materia di namespaces (spazi dei nomi utente), nel 2008 nasce il progetto LinuX Container (LXC): la soluzione più completa di gestione di container in quegli anni. Tra i componenti fondamentali del progetto vi è lo sviluppo dei cgroups, creati da Google nel 2006, i quali consentono di controllare e limitare l’utilizzo delle risorse da parte di un processo o di un gruppo di processi.

Il 2013 è l’anno di svolta: arriva Docker, il sistema di container Linux più utilizzato in campo IT. Docker è un progetto open source sviluppato dalla compagnia Dotcloud (in seguito rinominata Docker) sulla base di LXC, che, attraverso ulteriori avanzamenti, diventò ciò che è la tecnologia Docker di oggi. Dal 2014 Docker non utilizza più LXC come ambiente di esecuzione di default, sostituito dalla propria libreria libcontainer scritta nel linguaggio di programmazione Go. Docker è un ecosistema complesso ma molto intuitivo per il deployment e la gestione dei container, ricco di funzonalità tra le quali un sistema di immagini, registri locali e globali per i container e un’interfaccia a linea di comando.

Abbiamo parlato nello specifico di Docker in quanto è il più diffuso a livello mondiale, ma non è l’unico sistema di gestione dei container: esistono svariate soluzioni tecnologiche che hanno la stessa funzione tra le quali Kubernetes, Google Container Engine e molte altre.

Vuoi saperne di più sulla tecnologia dei container? Richiedi una consulenza gratuita con i nostri esperti!

 
Facebook
Twitter
LinkedIn

Contattaci

Compila il form e un nostro esperto ti ricontatterà entro 24 ore: non vediamo l’ora di conoscerti!

Richiedi la tua prova gratuita

Ehi! Stai già andando via?

Iscriviti alla nostra newsletter per restare aggiornato sulle novità dell’universo Criticalcase