Accueil InfoQ Infrastructure sur InfoQ
-
Traitements Big Data avec Apache Spark - 2ème partie : SparkSQL
Spark SQL, composant du framework Apache Spark, est utilisé pour effectuer des traitements sur des données structurées en exécutant des requêtes de type SQL sur les données Spark. Srini Penchikala discute le module Spark SQL et la manière dont il simplifie les analyses de données utilisant SQL.
-
Management visuel de portefeuille : Alignez votre entreprise de manière collaborative
Pour tirer profit des avantages de l'Agile, tels que la vitesse, la flexibilité et les feedbacks rapides, les entreprises doivent travailler sur les bonnes choses. Le modèle des 3 horizons explique comment les entreprises peuvent maintenir une croissance durable. Quant au management visuel de portefeuille, il permet d’aligner différents types de travaux en un système cohérent.
-
Traitements Big Data avec Apache Spark - 1ère partie : Introduction
Apache Spark est un framework de traitements Big Data open source construit pour effectuer des analyses sophistiquées. Dans cet article, Srini Penchikala explique comment le framework Apache Spark aide dans le domaine des traitements et des analyses big data avec son API standard et explique comment Spark se positionne par rapport aux implémentations MapReduce traditionnelles comme Apache Hadoop.
-
Distributions de calculs sur un cluster avec JPPF
Cet article décrit comment il est possible de paralléliser l'exécution de traitements soumis à une implémentation spécifique d'ExecutorService sur un cluster JPPF. Chaque traitement calculera la liste des nombres premiers entre 1 et une valeur limite, fixée à l'initialisation.
-
GS Collections par l'exemple - Partie 1
Donald Raab, créateur de GS Collections, rendu libre par Goldman Sachs en 2012, explique la puissance de cette bibliothèque et comment, en l’associant avec les fonctions lambdas, elle enrichit Java avec quelques touches de Smalltalk.
-
Lambda-Architecture sur Microsoft Azure, entretien avec Benjamin Guinebertière
A quelques jours des TechDays 2015, InfoQ FR a pu rencontrer Benjamin Guinebertière pour lui poser quelques questions sur les sessions qu'il animera pendant ces 3 jours de conférences, les 10, 11 et 12 février prochains.
-
Virtual Panel : Confrontation sur le Tuning de performance
Dans le monde de la livraison d'application, le tuning de performance semble échapper au courant dominant. InfoQ a eu l'occasion de discuter avec cinq personnalités de l'analyse de performance à propos des causes et de ce qui peut être fait pour y remédier. Le résultat a été un débat plutôt enflammé.
-
Pourquoi certaines Web APIs ne sont-elles pas RESTful et ce qui peut être fait à ce sujet
Beaucoup de concepteurs de Web APIs présentent leurs APIs comme étant RESTful. Pourtant celles-ci ont souvent peu à voir avec REST. Que doit-il être fait pour que l’API d’un Web service soit réellement RESTful ?
-
Revue de livre et Interview - Practical Cassandra: A Developer's Approach
Le livre "Practical Cassandra: A Developer's Approach", de Russell Bradberry and Eric Lubow, est un guide de développement expliquant comment construire des applications s’appuyant sur la base de données Cassandra. Ce livre couvre tous les aspects du cycle de développement Cassandra et présente des cas d'utilisation. InfoQ s’est entretenu avec les auteurs.
-
Cassandra : Introduction à CQL3
Dans cet article, nous présenterons le language CQL3 et les différences avec SQL.
-
Interview et Critique de livre : Chef Infrastructure Automation Cookbook
Dans "Chef Infrastructure Automation Cookbook", Matthias Marschall fournit des informations tactiques sur Chef d'Opscode pour des utilisateurs de niveau débutant à expert. Les premiers y trouveront un apprentissage progressif à l'aide d'outils open source et de services gratuits ; les seconds pourront commencer à automatiser la configuration des applications de production dans leurs data centers.
-
Utilisation de Cassandra en tant que RDD Spark avec le connecteur Datastax
Premier article dévoilant comment il est possible d'utiliser Cassandra et Spark pour effectuer des opérations sur une grande quantité de données, le tout de manière distribuée. Nous allons utiliser des données représentant un ensemble de trajets reliant des villes américaines et effectuer des opérations impliquant ces trajets.