Categorias

10 tecnologias corporativas que mais se destacaram em 2009

Tecnologias Corporativas
Tecnologias com potencial para reduzir custos, mudar o modo como trabalhamos e abrir novas portas estão entre as que mais se destacaram este ano, de acordo com levantamento realizado pela redação da revista InfoWorld*, nos Estados Unidos.

Confira abaixo a lista das dez tecnologias emergentes em 2009:

10. Whitelisting
Acompanhar os registros de malwares está se tornando uma tarefa difícil. Em 2008, por exemplo, a fornecedora de software de segurança Symantec registrou mais dados do que nos últimos 17 anos da companhia. A empresa identificou, que além dos vírus, worms e cavalos-de-troia, houve um aumento do número de variações que evitam a detecção.

A solução para a proliferação crescente desse problema é o software whitelisting que permite que apenas executáveis conhecidos sejam instalados em um sistema.

O processo começa com uma imagem limpa e livre de malwares de um desktop ou servidor. O software de whitelisting identifica os arquivos usando um ou mais códigos criptográficos. Em seguida, o monitoramento dos agentes nos sistemas marca a presença de qualquer executável não identificado e impede a sua execução. A maioria das companhias distribui imagens de sistemas pela empresa e o whistelisting pode ser eficaz no reforço da segurança.

Obviamente, o conceito precisa de uma mudança cultural. Hoje, em várias empresas, os usuários ainda tem algum tipo de controle sobre o que podem executar no desktop ou laptop, mas com o desenvolvimento crescente de códigos mal-intencionados, o whitelisting pode ser uma opção para segurança corporativa.

(Eric Knorr)

9. Aplicativos móveis multiplataforma
O fenômeno iPhone trouxe muitas possibilidades para os desenvolvedores e a principal delas é a familiarização com Objective C, linguagem primeiramente criada para o computador NeXT, de Steve Jobs, em 1988.

Para os programadores de Java, o aprendizado de Objective C significa saber lidar com alocações de memória, mas é necessário absorver o conceito de compilação. Não há outra escolha para escrever um código que possa ser baixado por milhões de usuários do smartphone.

Os dias de reinado do iPhone estão acabando rapidamente e os desenvolvedores estão de olho na competição. Os smartphones com Android e o BlackBerry usam Java. O Symbian OS da Nokia conta com várias linguagens, incluindo algumas versões de C e C++. Inúmeros desenvolvedores percebem uma situação em comum: todos vêm com navegadores que suportam HTML, JavaScript e CSS. A ideia do Palm Pre é executar aplicativos escritos nessas linguagens da web.

Alguns kits de desenvolvimento estão indo além do navegador para oferecer acesso a recursos mais profundos da interface de programação, mas a maior parte da lógica importante é construída em JavaScript.

Para as corporações, o desenvolvimento de aplicativos para múltiplas plataformas elimina uma barreira importante para criar e distribuir aplicativos internos. É difícil mandar todos os funcionários usarem o mesmo smartphone. E, mesmo que fosse possível programar os aplicativos para uma plataforma específica haveria limitações.

Com o novo recurso, é possível escrever apenas uma vez, sem ter que aprender de acordo com a plataforma e executar em vários dispositivos. No fim das contas, a distribuição de aplicativos móveis em empresas pode se tornar real.

(Peter Wayner)

8. Economia de energia de hardware
As tecnologias que ajudam a economizar dinheiro e preservar o meio ambiente com a redução do consumo de energia já estão integradas a servidores, desktops e outros tipos de hardware, mas em alguns casos os benefícios só aparecem com o suporte do software.

Fontes mais eficientes, em conjunto com discos rígidos que reduzem a velocidade ou se desligam quando não está sendo usados, estão sendo os principais até agora. Mas para “estacionar” núcleos inativos, placas-mãe ou outros componentes, é preciso um comando, vindo do sistema operacional ou aplicação.

No caso, as fontes são o jeito mais simples de economizar energia, pois não há a necessidade de suporte de um software.

Os processadores mais recentes já possuem o recurso de desligamento de núcleos quando não estão sendo usados. A função funciona com o Windows 7 e o Windows Server 2008 R2 e é mais eficiente em servidores que estão em uso fora do horário de serviço.

Placas-mãe e complementos como interfaces de rede estão introduzindo o recurso de redução de consumo quando fora de uso. Mas, até que todos os recursos sejam suportados pelo sistema operacional – e, em alguns casos, aplicativos individuais -, eles não serão de grande utilização.

(Logan Harbaugh)

7. Processadores com vários núcleos
As maiores fabricantes de processadores já atingiram um limite em relação à velocidade do clock. Cada melhoria nesse quesito representa um grande aumento na energia necessária e temperatura de operação.

Assim, as companhias mudaram a estratégia: de um único núcleo rápido para vários núcleos mais lentos, que executam o código em paralelo. A alta velocidade de processamento já não é mais o grande fator da computação.

Os chips com vários núcleos consumem menos energia, geram menos calor e completam as tarefas de maneira mais eficiente. Nos servidores, eles são exatamente o que a tecnologia da informação gosta.

Hoje, por exemplo, um processador Intel Nehalem tem quatro núcleos, e cada um deles executa dois threads simultaneamente. Então, em um sistema com quatro destes, que não é muito caro, 32 threads rodam ao mesmo tempo. Cinco anos atrás, apenas mainframes e servidores especiais poderiam rodar esse tipo de tecnologia.

Os chips com vários núcleos tiveram menos impacto em computadores desktop, devido à falta de aplicativos que usam o recurso com eficiencia, além da ausência de programadores habilitados para desenvolvê-los. Esse cenário está mudando, especialmente em aplicativos gráficos e corporativos.

A próxima década verá uma explosão de núcleos nos novos chips. Essa era, chamada de “many core” – termo que se refere ao uso de mais de oito núcleos – deve iniciar em breve. A Intel, por exemplo, já fez demonstrações de um chip do seu projeto em escala de tera, que contem 80 núcleos e é capaz de fazer um trilhão de cálculos por segundo com consumo de apenas 62 watts de energia.

Outras empresas também estão entrando nessa tendência: a Tilera já vende processadores com 16 núcleos, e pretende lançar um modelo com 100 núcleos em 2010. Nesse caso, o equipamento é usado para videoconferências, permitindo várias transmissões simultâneas em alta definição.

A era do many-core possibilitará aos usuários comuns executar operações de larga escala com facilidade e baixo custo, além de permitir supercomputação real em PCs.

(Andrew Binstock)

6. SSD (Solid State Drives)
Os dispositivos de armazenamento sólido (SSD) já estão no mercado desde o último século, mas a oferta aumento recentemente com a queda dramática nos preços. No passado, os SSDs foram usados para aplicações que precisam de maior desempenho. Hoje vemos uma adoção mais ampla, com a utilização deles em caches externos para aumentar a performance de diversas operações. Gigabyte por gigabyte, os SSDs ainda são muito mais caros que discos rígidos, mas são mais baratos do que investimentos em memória interna de servidores.

Comparado ao disco rígido tradicional, o SSD não é só mais rápido para leitura e escrita de dados, mas também apresenta taxas de transferências mais elevadas e consumem menos energia. Por outro lado, essa tecnologia tem uma vida útil limitada porque cada célula suporta um número reduzido de gravações.

Há dois tipos de SSDs: célula de nível único (SLC) e célula de vários níveis (MLC). SLCs são mais rápidas do que MLC e duram até dez vezes mais, mas custam mais caro. A durabilidade é um grande problema para os SSDs, mas o aumento das capacidades de gravação e uso mais inteligente dos caches de memória DRAM estão tornando a proposta mais atraente.

Porém, a questão mais importante é o preço: um SSD de 32 gigabytes caiu de 1000 dólares para menos de 100 dólares nos últimos cinco anos, apesar de ainda custar 46 vezes mais do que um disco SATA, em termos de dólar por gigabyte.

A adoção do modelo deve acelerar cada vez mais, conforme cresce a demanda por desempenho elevado na computação em nuvem e outras aplicações.

(Logan Harbaugh)

5. Bancos de dados NoSQL
Dados estão em todos os lugares, como nunca visto antes. E já foram os dias nos quais “SQL” e “banco de dados” eram compatíveis, já que os sistemas antigos não conseguem lidar com a quantidade de informações dos aplicativos Web 2.0.

Os maiores websites usam terabytes de dados com poucas semelhanças em relação às colunas e linhas com números de um departamento financeiro. As informações de tráfego são armazenados em amplos arquivos e analisados por cron jobs durante à noite.

Qualquer coisa pode se adaptar ao modelo clássico de banco de dados, mas além de precisar de muito trabalho, isso significa pagar por todos os mecanismos sofisticados de segurança e backup desenvolvidos para o setor financeiro. A não ser que seja extremamente necessário, não há motivo para gastar tanto ou sofrer quedas de desempenho.

A solução está nos bancos de dados NoSQL, que são pares de chave/valor, unidos a uma chave com uma série de atributos. Não há tabelas com colunas em branco, nem problemas em adicionar marcações ad hoc ou valores para cada item.

As propostas de hoje incluem o Projeto Voldemort, Cassandra, Dynamite, HBase, Hypertable, CouchDB e MongoDB, cada uma com uma forma diferente de acessar os dados.

Pares simples de chave/valor são apenas o começo. O Neo4J, por exemplo, oferece um banco de dados em gráfico, que usa pedidos de rotinas para uma rede. Se você quiser os nomes dos cachorros de todos os amigos de um amigo, a requisição tem apenas algumas linhas de código.

Todos esses novos projetos são os últimos a redescobrirem a velocidade que pode ser alcançada ao relaxar os requerimentos. A tendência é mais ajustes que tornam as regras flexíveis, além de melhoras na compatibilidade e facilidade de uso, resultando em uma nova era de processamento de dados.

(Peter Wayner)

4. Virtualização de entrada/saída
A virtualização de entrada/saída de dados (I/O) trata de um problema que atinge os servidores rodando softwares de virtualização como VMware ou Microsoft Hyper-V.

Quando um grande número de máquinas virtuais (VMs) rodam em um único servidor, I/O se torna essencial para a comunicação VM com a rede e as conexões VMs com a área de armazenamento. A virtualização I/O não só facilita a alocação de banda em múltiplas VMs em um servidor como também ajuda a administrar as conexões entre servidores físicos e o setor de armazenamento

Use como exemplo a recomendação do VMWare para alocar uma porta de Ethernet gigabit por VM. Um servidor que suporta 16 máquinas virtuais precisaria de quatro adaptores de quatro portas, além de um Ethernet adicional (iSCSI), SCSI ou Fibre Channel para o armazenamento necessário. Muitos servidores não possuem espaços livres para tantos adaptadores, mesmo se a capacidade de resfriamento for adequada.

Em resposta ao mercado, fabricantes de virtualização I/O como Xsigo e Cisco oferecem uma solução para dar a cada servidor uma única conexão de alta velocidade, ao invés de múltiplas conexões de Ethernet e Fibre Channel. Um adaptador por servidor pode oferecer várias conexões virtuais. Esses adaptadores são os normais InfiniBand ou Ethernet, rodando drivers no sistema operacional, que trata a conexão rápida como várias conexões de rede e armazenamento.

Esse tipo de virtualização não precisa de drivers que suportam o sistema operacional que está sendo usado. Os maiores sistemas e plataformas de virtualização são suportados, incluindo VMware ESX e Windows Server 2008 Hyper-V. Se você estiver adotando um deles, a virtualização pode fazer um grande datacenter muito mais simples e menos caro, além de aumentar o poder de processamento e aumentar o número de máquinas virtuais.

(Logan Harbaugh)

3. Deduplicação de dados
Os dados são o sangue de qualquer negócio. O problema é o que fazer com eles. Segundo a IDC, as informações de uma corporação dobra a cada 18 meses, levando os sistemas de armazenamento ao limite. A culpa cai para o lado das regras que obrigam o arquivamento de mensagens e documentos. O mais importante é que não há data de vencimento para os valores de negócio. Analisar os dados de anos atrás permite aos usuários descobrir tendências e criar previsões.

O método criado para reduzir os números gigantes de armazenamento desse conteúdo é chamado de deduplicação de dados.

Cada rede possui massas de dados duplicados, como pacotes múltiplos de backups, milhares de cópias de dados dos funcionários e anexos idênticos no mesmo servidor de e-mail. A ideia básica da deduplicação é localizar as duplicadas de um arquivo e eliminá-las, deixando apenas a original. Cada duplicata é substituida por um simples atalho que aponta para a original. Quando os usuários tentarem acessar, o atalho os direcionam para a original e eles nem percebem a diferença.

A deduplicação tem várias formas, de direcionamento de arquivo para arquivo a métodos mais avançados de aprofundamento nos arquivos, em nível de bloco ou byte.

Basicamente, o processo funciona com a análise de um pacote de dados, seja em bloco, séries de bits ou arquivo inteiro. Esses dados passam por um algoritmo para cirar um código único. Se esse código já está catalogado, significa que o pacote é duplicado e não precisa ser armazenado de novo. Se não, ele é catalogado e o processo continua.

Quando o assunto é resolver assuntos reais de TI, poucas tecnologias têm um impacto maior do que a deduplicação de dados.

(Keith Schultz)

2. Virtualização de Desktop
A virtualização de Desktops existiu quase sempre. Pode até se dizer que ela vem emergindo desde os anos 90. E, agora, um dos maiores avanços está no hypervisor para desktops.

O cliente hypervisor eleva o conceito de tecnologia de virtualização. Imagine cada desktop rodando sua própria camada virtual que integra a base do hardware para qualquer máquina virtual desejada para o desktop, que pode ser administrada, sincronizada com um espelho em servidor ou facilmente substituída (ou até mesmo reiniciada pelo usuário) caso algo dê errado. A VMware já desenvolve uma solução do gênero, assim como outras companhias, que deve chegar ao mercado em 2010.

Desconsiderando qualquer solução disponível hoje ou amanhã, a administração de desktops ainda é um dos aspectos mais dolorosos em qualquer organização. Enquanto o modelo para arquitetura de datacenter mudou sistematicamente nos últimos 20 anos, o modelo para gestão de desktops continua o mesmo. Na maioria dos casos, ainda é uma grande caixa por usuário, com algumas ferramentas em cima para proteger usuários deles mesmos e proteger a rede dos usuários.

Se qualquer uma das tecnologias de virtualização de desktop são aplicáveis a sua empresa é totalmente dependente da natureza do negócio. Quanto aos usuários comuns, o cliente hypervisor pode ser muito mais do que eles precisam.

(Paul Venezia)

1. MapReduce
A tecnologia de MapReduce permite à corporações integrar análises inimagináveis de quantidades de datas com preços favoráveis: um recurso que promete mudar os negócios para sempre.

De modo simples, o MapReduce divide o processamento em pequenos blocos de trabalho, os distribui em um conjunto de computadores (tipicamente servidores) e coleta os resultados. Com suporte a alta escala de processamento paralelo, a tecnologia é rápida, barata e segura. Se um computador falhar, o trabalho perdido se limita a apenas um bloco.

Essa estrutura foi introduzida pelo Google em 2004, mas há muitos complementos hoje, incluindo o Apache Hadoop, Qizmt, Disco, Skynet e Greenplum.

O crescimento sem controles de dados é um fato que não pode ser evitado. Conforme os fabricantes integrarem o MapReduce em suas ofertas, teremos uma nova visão do que todos esses petabytes significam.

(Savio Rodrigues)

*A lista é baseada inteiramente no julgamento coletivo dos editores e colaboradores da InfoWorld.

Com informações de InfoWorld/EUA.