Início Big Data no InfoQ Brasil
Notícias
Feed RSS-
Cresce competição entre implementações do Hadoop para consultas em tempo real
Stinger, a nova iniciativa da Hortonworks, entra na disputa com o Apache Drill e o Cloudera Impala pela melhor implementação do Hadoop para consultas em tempo real. Conheça as novidades.
-
Novo Radar de Tecnologias da ThoughtWorks: Mobile e Big Data em destaque
O último relatório “Radar de Tecnologias” da ThoughtWorks concentra-se em plataformas móveis, análises de Big Data, arquiteturas simples, ambientes reproduzíveis, e persistência de dados bem construída. Veja um resumo.
-
Big Data da Microsoft: um panorama das novidades
Alguns meses atrás, a Microsoft anunciou o HDInsight, a distribuição do Hadoop da empresa para gerenciar, analisar e dar sentido a grandes volumes de dados. A InfoQ contatou Val Fontama, Gerente de Produtos do SQL Server, para conhecer os rumos da estratégia de Big Data na Microsoft.
-
Big Data como serviço: tendências e oportunidades
Serviços para Big Data disponibilizados por grandes fornecedores de computação na nuvem como Amazon, Microsoft e Google estão revelando tendências e oportunidades. Conheça as mudanças mais recentes.
-
Apache Drill: Big Data interativo
O Apache Drill, projeto incubado recentemente pela Fundação Apache, é um sistema distribuído para análise interativa de Big Data, baseado no Google Dremel. Seu objetivo é processar eficientemente e de forma interativa grandes conjuntos de dados. Conheça mais sobre o projeto.
-
Tecnologia em vez de pensamento? Os riscos do foco no ‘agora’
Steve Jones da Cap Gemini recentemente escreveu um artigo defendendo que pensar em soluções de problemas é hoje menos importante que adotar as mais recentes novidades e modas do mercado.
-
O Datomic, de Rich Hickey, adota Computação em Nuvem, Aplicações inteligentes e Consistência
Desenvolvido desde 2010, por Rich Hickey e a equipe Relevance, o Datomic oferece algumas novas abordagens para arquitetura de bancos de dados. Impulsionado pelas tendências atuais, como computação em nuvem e armazenamento, o Datomic possui transações consistentes, API de consulta rica e dimensionamento de leitura.
-
LinkedIn abre o código do seu banco de dados distribuído SenseiDB
O grupo de Engenharia do LinkedIn abriu o código do SenseiDB 1.0.0, um banco de dados NoSQL com foco em altas taxas de atualização. Este é utilizado no ambiente de produção do LinkedIn, em suas páginas de buscas de pessoas e empresas, entre outros serviços.
-
Hazelcast 2.0: cache e backup distribuído, memória otimizada
Foi lançada recentemente a versão 2.0 do Hazelcast, uma plataforma Java para caching e armazenamento de dados distribuídos em cluster. Além de novas funcionalidades como backup distribuído e melhorias em I/O, o Hazelcast passa a ser distribuído em uma versão comercial e outra open source.
-
Adoção de NoSQL está em crescimento, indicam várias pesquisas
Uma nova pesquisa realizada pelo Couchbase indica que a taxa de adoção de soluções NoSQL por empresas está crescendo. Outras pesquisas e previsões confirmam a tendência.
-
PostgreSQL e Neo4J vão para a nuvem
O banco relacional PostgreSQL e o banco NoSQL baseado em grafos Neo4J,estão entre os mais recentes repositórios de dados a trilharem o caminho rumo à nuvem. Já é possível executar instâncias com Postgres no AWS e acessar o Neo4J a partir do Heroku.
-
DynamoDB da Amazon: NoSQL na nuvem por preços módicos
A Amazon lançou o DynamoDB, uma base de dados NoSQL projetada para aplicações de internet, para armazenamento de alto desempenho e alta disponibilidade no serviço de nuvem AWS.
-
Big Data: Evolução ou Revolução?
O Google, o Yahoo, a Amazon e algumas outras empresas têm desenvolvido ou estão utilizando soluções de Big Data e NoSQL, devido ao imenso volume de dados e processamento demandado. Mas tais implementações teriam alguma utilidade em cenários mais comuns?
-
Cassandra 1.0: pronto para o ambiente Enterprise
A Fundação Apache anunciou o lançamento do Cassandra 1.0, a primeira versão principal do popular banco de dados NoSQL open source, distribuído e baseado em colunas. O release introduz a compressão de dados e grandes melhorias em desempenho.
-
A maior migração da história do Facebook: 30 petabytes e grandes desafios
Um imenso e rapidamente crescente volume de dados motivou a maior migração de dados já realizada pelo Facebook. A mudança, só recentemente divulgada, envolveu 30 petabytes, armazenados em um data warehouse baseado no Apache Hadoop e Apache Hive, entre outras tecnologias open source. Conheça os desafios enfrentados na migração e as soluções encontradas.