IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Livres en anglais

15 livres et 16 critiques, dernière mise à jour le 19 octobre 2021 , note moyenne : 4.5

  1. Reinforcement Learning - Industrial Applications of Intelligent Agents
  2. The Art of Feature Engineering - Essentials for Machine Learning
  3. Bandit Algorithms
  4. Machine Learning Under a Modern Optimization Lens
  5. Ensemble Learning - Pattern Classification Using Ensemble Methods
  6. Handbook of Machine Learning - Volume 2: Optimization and Decision Making
  7. Handbook of Machine Learning - Volume 1: Foundation of Artificial Intelligence
  8. Fundamentals of Data Visualization - A Primer on Making Informative and Compelling Figures
  9. Practical Tableau - 100 Tips, Tutorials, and Strategies from a Tableau Zen Master
  10. Data Science from Scratch - First Principles with Python
  11. Generative Deep Learning - Teaching Machines to Paint, Write, Compose, and Play
  12. Practical Time Series Analysis - Prediction With Statistics and Machine Learning
  13. Hands-On Unsupervised Learning Using Python - How to Build Applied Machine Learning Solutions from Unlabeled Data
  14. Machine Learning for Data Streams - With Practical Examples in MOA
  15. Natural Language Processing with Python
couverture du livre Reinforcement Learning

Note 5 drapeau
Détails du livre
Sommaire
Critiques (1)
0 commentaire
 
 

Reinforcement Learning

Industrial Applications of Intelligent Agents

de
Public visé : Débutant

Résumé de l'éditeur

Reinforcement learning (RL) will deliver one of the biggest breakthroughs in AI over the next decade, enabling algorithms to learn from their environment to achieve arbitrary goals. This exciting development avoids constraints found in traditional machine learning (ML) algorithms. This practical book shows data science and AI professionals how to learn by reinforcement and enable a machine to learn by itself.

Learn what RL is and how the algorithms help solve problems
Become grounded in RL fundamentals including Markov decision processes, dynamic programming, and temporal difference learning
Dive deep into a range of value and policy gradient methods
Apply advanced RL solutions such as meta learning, hierarchical learning, multi-agent, and imitation learning
Understand cutting-edge deep RL algorithms including Rainbow, PPO, TD3, SAC, and more
Get practical examples through the accompanying website

Author Phil Winder of Winder Research covers everything from basic building blocks to state-of-the-art practices. You'll explore the current state of RL, focus on industrial applications, learn numerous algorithms, and benefit from dedicated chapters on deploying RL solutions to production. This is no cookbook; doesn't shy away from math and expects familiarity with ML.

Édition : O'Reilly - 381 pages, 1re édition, 20 novembre 2020

ISBN10 : 1098114833 - ISBN13 : 9781098114831

Commandez sur www.amazon.fr :

40.66 € TTC (prix éditeur 40.66 € TTC)
Why Reinforcement Learning?
Markov Decision Processes, Dynamic Programming, and Monte Carlo Methods
Temporal-Difference Learning, Q-Learning, and n-Step Algorithms
Deep Q-Networks
Policy Gradient Methods
Beyond Policy Gradients
Learning All Possible Policies with Entropy Methods
Improving How an Agent Learns
Practical Reinforcement Learning
Operational Reinforcement Learning
Critique du livre par la rédaction Thibaut Cuvelier le 18 octobre 2021
L'intelligence artificielle a apporté de nombreux progrès scientifiques récents, mais peut rester mystérieuse pour les non-initiés. Ce livre ne considère pas de prérequis particulier dans le domaine et apporte des explications très accessibles pour le domaine de l'apprentissage par renforcement, l'un des piliers actuels des développements récents de l'intelligence artificielle. L'auteur ne partage pas que ses connaissances, une bonne partie de l'ouvrage se focalise sur les applications réelles de l'apprentissage par renforcement. C'est d'ailleurs là l'un de ses points forts, car les derniers chapitres s'intéressent au déploiement industriel de solutions d'apprentissage par renforcement.

Même si l'apprentissage par renforcement est un domaine très mathématique, l'auteur limite l'exposition aux équations le plus possible et ne garde que l'essentiel des développements, tout en ponctuant les formules les plus compliquées avec des intuitions pour en comprendre le sens.

Bien qu'appliqué, cet ouvrage ne présente presque pas de code, uniquement des principes : tout le code se retrouve en ligne, parce qu'il est plus agréable de le lire sur écran que sur papier, notamment pour profiter des dernières mises à jour. Aussi, les mises en pratique sont toujours éclairées par les dernières avancées de la recherche dans le domaine, certains algorithmes présentés n'ayant été développés que ces dernières années. Ce n'est pas pour autant que l'auteur cède aux sirènes journalistiques : les sujets abordés restent les pieds sur terre, sans extrapolation sur les possibilités technologiques, mais avec des considérations éthiques.




 Commenter Signaler un problème

Avatar de dourouc05 dourouc05 - Responsable Qt & Livres https://www.developpez.com
le 19/10/2021 à 0:09
Reinforcement Learning
Industrial Applications of Intelligent Agents
Reinforcement learning (RL) will deliver one of the biggest breakthroughs in AI over the next decade, enabling algorithms to learn from their environment to achieve arbitrary goals. This exciting development avoids constraints found in traditional machine learning (ML) algorithms. This practical book shows data science and AI professionals how to learn by reinforcement and enable a machine to learn by itself.

Learn what RL is and how the algorithms help solve problems
Become grounded in RL fundamentals including Markov decision processes, dynamic programming, and temporal difference learning
Dive deep into a range of value and policy gradient methods
Apply advanced RL solutions such as meta learning, hierarchical learning, multi-agent, and imitation learning
Understand cutting-edge deep RL algorithms including Rainbow, PPO, TD3, SAC, and more
Get practical examples through the accompanying website

Author Phil Winder of Winder Research covers everything from basic building blocks to state-of-the-art practices. You'll explore the current state of RL, focus on industrial applications, learn numerous algorithms, and benefit from dedicated chapters on deploying RL solutions to production. This is no cookbook; doesn't shy away from math and expects familiarity with ML.

[Lire la suite]




 
couverture du livre The Art of Feature Engineering

Note 4.5 drapeau
Détails du livre
Sommaire
Critiques (1)
0 commentaire
 
 

The Art of Feature Engineering

Essentials for Machine Learning

de
Public visé : Intermédiaire

Résumé de l'éditeur

'Pablo Duboue is a true grandmaster of the art and science of feature engineering. His foundational contributions to the creation of IBM Watson were a critical component of its success. Now readers can benefit from his expertise. His book provides deep insights into to how to develop, assess, combine, and enhance machine learning features. Of particular interest to advanced practitioners is his discussion of feature engineering and deep learning; there is a pervasive myth in the industry that deep learning and big data have made feature engineering obsolete, but the book explains why that is often incorrect for real-world computing applications and explains the relationship between building effective features and deep neural network architectures. The book engages with countless other basic and advanced topics in the area of machine learning and feature engineering, making it a valuable resource for machine learning practitioners of all levels of experience.' J. William Murdock, IBM

When working with a data set, machine learning engineers might train a model but find that the results are not as good as they need. To get better results, they can try to improve the model or collect more data, but there is another avenue: feature engineering. The feature engineering process can help improve results by modifying the data’s features to better capture the nature of the problem. This process is partly an art and partly a palette of tricks and recipes. This practical guide to feature engineering is an essential addition to any data scientist’s or machine learning engineer’s toolbox, providing new ideas on how to improve the performance of a machine learning solution.

Beginning with the basic concepts and techniques of feature engineering, the text builds up to a unique cross-domain approach that spans data on graphs, texts, time series and images, with fully worked-out case studies. Key topics include binning, out-of-fold estimation, feature selection, dimensionality reduction and encoding variable-length data. The full source code for the case studies is available on a companion website as Python Jupyter notebooks.

Édition : Cambridge University Press - 284 pages, 1re édition, 25 juin 2020

ISBN10 : 1108709389 - ISBN13 : 9781108709385

Commandez sur www.amazon.fr :

44.77 € TTC (prix éditeur 44.77 € TTC)
Fundamentals

Introduction
Features, Combined: Normalization, Discretization and Outliers
Features, Expanded: Computable Features, Imputation and Kernels
Features, Reduced: Feature Selection, Dimensionality Reduction and Embeddings
Advanced Topics: Variable-Length Data and Automated Feature Engineering

Case Studies

Graph Data
Time stamped Data
Textual Data
Image Data
Other Domains: Video, GIS and Preferences
Critique du livre par la rédaction Thibaut Cuvelier le 12 février 2021
Certains compétiteurs sur Kaggle disent que la grande différence entre les gagnants et les autres, ce ne sont pas les compétences dans le réglage des algorithmes d'apprentissage, mais bien dans la création de nouvelles variables, c'est-à-dire dans l'art de l'ingénierie des caractéristiques. C'est justement de ce sujet précis que traite cet ouvrage.

Le livre est en bonne partie construit sur des études de cas : elles constituent la deuxième partie, où les différentes techniques présentées dans la première sont mises en pratique et comparées. L'auteur ne cherche d'ailleurs pas qu'à y montrer ce qui fonctionne bien, car la plupart des essais, dans la pratique industrielle, ne donnent pas les résultats escomptés. Toutes ces études de cas partent d'une même utilisation, l'estimation de la population de villes, à partir de données différentes (tabulaires, textuelles, graphiques, etc.).

La première partie se focalise sur des manières génériques de traiter un jeu de données. Elle est orientée vers la méthodologie derrière le calcul de nouvelles caractéristiques plutôt que sur le code pour réaliser les opérations mathématiques. La seconde moitié de l'ouvrage présente aussi des méthodes moins génériques, mais plutôt conçues à partir de connaissances fines du domaine d'application.

Bon nombre de techniques présentées sont véritablement à la pointe de la recherche scientifique dans le domaine. L'auteur a d'ailleurs inclus des centaines de références vers la littérature scientifique (dont les méthodes ne sont pas toujours expliquées en détail dans le livre). On peut cependant regretter que les techniques proposées ne soient pas comparées d'un point de vue mathématique, mais uniquement numérique, d'une manière qui n'est donc pas forcément scientifique (mais ce n'est pas l'objectif de l'ouvrage).




 Commenter Signaler un problème

Avatar de dourouc05 dourouc05 - Responsable Qt & Livres https://www.developpez.com
le 12/02/2021 à 23:55
The Art of Feature Engineering
Essentials for Machine Learning
'Pablo Duboue is a true grandmaster of the art and science of feature engineering. His foundational contributions to the creation of IBM Watson were a critical component of its success. Now readers can benefit from his expertise. His book provides deep insights into to how to develop, assess, combine, and enhance machine learning features. Of particular interest to advanced practitioners is his discussion of feature engineering and deep learning; there is a pervasive myth in the industry that deep learning and big data have made feature engineering obsolete, but the book explains why that is often incorrect for real-world computing applications and explains the relationship between building effective features and deep neural network architectures. The book engages with countless other basic and advanced topics in the area of machine learning and feature engineering, making it a valuable resource for machine learning practitioners of all levels of experience.' J. William Murdock, IBM

When working with a data set, machine learning engineers might train a model but find that the results are not as good as they need. To get better results, they can try to improve the model or collect more data, but there is another avenue: feature engineering. The feature engineering process can help improve results by modifying the data’s features to better capture the nature of the problem. This process is partly an art and partly a palette of tricks and recipes. This practical guide to feature engineering is an essential addition to any data scientist’s or machine learning engineer’s toolbox, providing new ideas on how to improve the performance of a machine learning solution.

Beginning with the basic concepts and techniques of feature engineering, the text builds up to a unique cross-domain approach that spans data on graphs, texts, time series and images, with fully worked-out case studies. Key topics include binning, out-of-fold estimation, feature selection, dimensionality reduction and encoding variable-length data. The full source code for the case studies is available on a companion website as Python Jupyter notebooks.

[Lire la suite]




 
couverture du livre Bandit Algorithms

Note 4.5 drapeau
Détails du livre
Sommaire
Critiques (1)
0 commentaire
 
 

Bandit Algorithms

de
Public visé : Intermédiaire

Résumé de l'éditeur

Decision-making in the face of uncertainty is a significant challenge in machine learning, and the multi-armed bandit model is a commonly used framework to address it. This comprehensive and rigorous introduction to the multi-armed bandit problem examines all the major settings, including stochastic, adversarial, and Bayesian frameworks. A focus on both mathematical intuition and carefully worked proofs makes this an excellent reference for established researchers and a helpful resource for graduate students in computer science, engineering, statistics, applied mathematics and economics. Linear bandits receive special attention as one of the most useful models in applications, while other chapters are dedicated to combinatorial bandits, ranking, non-stationary problems, Thompson sampling and pure exploration. The book ends with a peek into the world beyond bandits with an introduction to partial monitoring and learning in Markov decision processes.

Édition : Cambridge University Press - 536 pages, 1re édition, 1er juillet 2020

ISBN10 : 1108486827 - ISBN13 : 9781108486828

Commandez sur www.amazon.fr :

44.07 € TTC (prix éditeur 44.07 € TTC)
Bandits, Probability and Concentration

Introduction
Foundations of Probability
Stochastic Processes and Markov Chains
Stochastic Bandits
Concentration of Measure

Stochastic Bandits with Finitely Many Arms

The Explore-Then-Commit Algorithm
The Upper Confidence Bound Algorithm
The Upper Confidence Bound Algorithm: Asymptotic Optimality
The Upper Confidence Bound Algorithm: Minimax Optimality
The Upper Confidence Bound Algorithm: Bernoulli Noise

Adversarial Bandits with Finitely Many Arms

The Exp3 Algorithm
The Exp3-IX Algorithm

Lower Bounds for Bandits with Finitely Many Arms

Lower Bounds: Basic Ideas
Foundations of Information Theory
Minimax Lower Bounds
Instance-Dependent Lower Bounds
High-Probability Lower Bounds

Contextual and Linear Bandits

Contextual Bandits
Stochastic Linear Bandits
Confidence Bounds for Least Squares Estimators
Optimal Design for Least Squares Estimators
Stochastic Linear Bandits with Finitely Many Arms
Stochastic Linear Bandits with Sparsity
Minimax Lower Bounds for Stochastic Linear Bandits
Asymptotic Lower Bounds for Stochastic Linear Bandits

Adversarial Linear Bandits

Foundations of Convex Analysis
Exp3 for Adversarial Linear Bandits
Follow-the-regularised-Leader and Mirror Descent
The Relation between Adversarial and Stochastic Linear Bandits

Other Topics

Combinatorial Bandits
Non-stationary Bandits
Ranking
Pure Exploration
Foundations of Bayesian Learning
Bayesian Bandits
Thompson Sampling

Beyond Bandits

Partial Monitoring
Markov Decision Processes
Critique du livre par la rédaction Thibaut Cuvelier le 25 janvier 2021
Dans le vaste domaine de l'intelligence artificielle, on parle de plus en plus d'apprentissage par renforcement pour les situations où un système apprend à interagir avec son environnement (l'exemple typique étant la voiture autonome). Les problèmes de bandit sont une classe particulière d'apprentissage par renforcement, avec une simplification majeure (il n'y a plus d'état) qui permet une étude théorique extrêmement poussée.

Cet ouvrage se veut être une bible des algorithmes de bandit, surtout écrite pour découvrir le domaine : autant que possible, les algorithmes et les théorèmes sont expliqués de manière intuitive. Les auteurs proposent une grande famille d'algorithmes pour des situations très variées, mais n'oublient pas le côté pratique avec des exemples réalistes d'applications. Toutefois, le public cible a très clairement de bonnes bases en mathématiques, plus qu'en informatique.

Chaque chapitre se termine par une série d'exercices bien ficelés, même si on peut regretter qu'il n'y ait pas de correction. Les preuves sont présentes en nombre, mais sont toujours détaillées, pour faciliter la compréhension des compromis mis en place pour chaque algorithme. Les auteurs mettent un point d'orgue à expliciter les hypothèses, chapitre par chapitre.

Les premiers chapitres forment un résumé des probabilités du point de vue de la théorie de la mesure : l'exposé n'est pas forcément limpide (car succinct), mais permet de généraliser les probabilités aux cas nécessaires pour l'étude des bandits. Les chapitres sont tous très petits, avec un découpage qui semble parfois arbitraire.




 Commenter Signaler un problème

Avatar de dourouc05 dourouc05 - Responsable Qt & Livres https://www.developpez.com
le 25/01/2021 à 20:22
Decision-making in the face of uncertainty is a significant challenge in machine learning, and the multi-armed bandit model is a commonly used framework to address it. This comprehensive and rigorous introduction to the multi-armed bandit problem examines all the major settings, including stochastic, adversarial, and Bayesian frameworks. A focus on both mathematical intuition and carefully worked proofs makes this an excellent reference for established researchers and a helpful resource for graduate students in computer science, engineering, statistics, applied mathematics and economics. Linear bandits receive special attention as one of the most useful models in applications, while other chapters are dedicated to combinatorial bandits, ranking, non-stationary problems, Thompson sampling and pure exploration. The book ends with a peek into the world beyond bandits with an introduction to partial monitoring and learning in Markov decision processes.
Critique

 
couverture du livre Machine Learning Under a Modern Optimization Lens

Note 5 drapeau
Détails du livre
Sommaire
Critiques (1)
0 commentaire
 
 

Machine Learning Under a Modern Optimization Lens

de
Public visé : Intermédiaire

Résumé de l'éditeur

The book provides an original treatment of machine learning (ML) using convex, robust and mixed integer optimization that leads to solutions to central ML problems at large scale that can be found in seconds/minutes, can be certified to be optimal in minutes/hours, and outperform classical heuristic approaches in out-of-sample experiments.

Structure of the book:

Part I covers robust, sparse, nonlinear, holistic regression and extensions.
Part II contains optimal classification and regression trees.
Part III outlines prescriptive ML methods.
Part IV shows the power of optimization over randomization in design of experiments, exceptional responders, stable regression and the bootstrap.
Part V describes unsupervised methods in ML: optimal missing data imputation and interpretable clustering.
Part VI develops matrix ML methods: sparse PCA, sparse inverse covariance estimation, factor analysis, matrix and tensor completion
Part VII demonstrates how ML leads to interpretable optimization.

Philosophical principles of the book:

Interpretability is materially important in the real world.
Practical tractability not polynomial solvability leads to real world impact.
NP-hardness is an opportunity not an obstacle.
ML is inherently linked to optimization not probability theory.
Data represent an objective reality; models only exist in our imagination.
Optimization has a significant edge over randomization
The ultimate objective in the real world is prescription, not prediction.

Édition : Dynamic Ideas - 589 pages, 1re édition, 1er janvier 2019

ISBN10 : 1733788506 - ISBN13 : 9781733788502

Commandez sur www.amazon.fr :

274.99 $ TTC (prix éditeur 94.99 $ TTC)
The Optimization Lenses
Robust Regression
Sparse Regression
Nonlinear Regression
Holistic Regression
Sparse and Robust Classification
Classification and Regression Trees
Optimal Classification Trees with Parallel Splits
Optimal Classification Trees with Hyperplane Splits
Optimal Regression Trees with Constant Predictions
Optimal Regression Trees with Linear Predictions
Optimal Trees and Neural Networks
From Predictive to Prescriptive Analytics
Optimal Prescriptive Trees
Optimal Design of Experiments
Identifying Exceptional Responders
Stable Regression
The Bootstrap
Optimal Missing Data Imputation
Interpretable Clustering
Sparse Principal Component Analysis
Factor Analysis
Sparse Inverse Covariance Estimation
Interpretable Matrix Completion
Tensor Learning
Interpretable Optimization
Critique du livre par la rédaction Thibaut Cuvelier le 6 décembre 2020
Les algorithmes d'apprentissage automatique actuels ont été développés il y a plusieurs décennies et n'ont vu que des modifications assez mineures depuis lors. Ainsi, ces algorithmes exploitent les possibilités d'optimisation disponibles à cette époque. Le problème est que, depuis lors, les outils d'optimisation (surtout en nombres entiers et avec des matrices semi-définies positives) ont fait d'énormes progrès : au lieu de n'utiliser que des heuristiques (qui délivrent rapidement des modèles de qualité très variable), ce livre propose des méthodes qui profitent des dernières avancées dans le domaine (des méthodes qui apportent des solutions optimales, impossibles à améliorer). Les pans actuels de l'intelligence artificielle sont couverts, des techniques d'apprentissage (régression, arbres, réseaux neuronaux) au partitionnement de données et au scénarios d'utilisation antagoniste.

Ce parti pris n'est pas encore suivi par la communauté de l'intelligence artificielle au sens large, une bonne partie du contenu correspond au travail de recherche des deux auteurs et de leurs collaborateurs (même s'ils n'accaparent pas la longue liste de références, très diverse). En particulier, cela signifie qu'il n'existe pas encore d'implémentation répandue pour la plupart des algorithmes présentés.

Chaque technique est présentée d'abord en partant des principes fondamentaux, avec une explication brève des techniques (heuristiques) actuelles, mais aussi de leurs inconvénients (souvent, l'interprétabilité des modèles obtenus). Les auteurs mettent l'accent sur les principes, plutôt que sur les détails algorithmiques d'implémentation (même si les principaux sont expliqués). Chaque technique est étudiée de manière approfondie, avec des études de cas pour montrer leur apport par rapport aux heuristiques actuelles, mais aussi des études numériques sur des données synthétiques pour comparer la performance des algorithmes optimaux par rapport aux heuristiques courantes. Selon les cas, des algorithmes polynomiaux sont proposés, mais l'objectif est de présenter des algorithmes utiles en pratique, pas uniquement en théorie.

Il ne s'agit pas du tout d'un ouvrage de probabilités ou de statistiques, contrairement à la majorité de la littérature sur l'apprentissage : les auteurs adoptent principalement le point de vue de l'optimisation pour résoudre les problèmes d'apprentissage, ce qui donne un éclairage totalement différent. Ils adoptent un style très rigoureux, mais le texte reste lisible (il n'est pas encombré de théorèmes et résultats peu importants). Toutefois, pour bien profiter du contenu, une bonne base en apprentissage est requise ; par dessus tout, de vraies compétences en optimisation (convexe, en nombres entiers, principalement) faciliteront la compréhension.

Le livre se prête aussi à une utilisation détournée, qui est celle d'un livre avancé sur l'optimisation. On peut ainsi l'utiliser comme une série de tutoriels de méthodes plus ou moins avancées pour résoudre des problèmes d'optimisation complexes.




 Commenter Signaler un problème

Avatar de dourouc05 dourouc05 - Responsable Qt & Livres https://www.developpez.com
le 06/12/2020 à 5:13
Machine Learning Under a Modern Optimization Lens


The book provides an original treatment of machine learning (ML) using convex, robust and mixed integer optimization that leads to solutions to central ML problems at large scale that can be found in seconds/minutes, can be certified to be optimal in minutes/hours, and outperform classical heuristic approaches in out-of-sample experiments.

Structure of the book:

Part I covers robust, sparse, nonlinear, holistic regression and extensions.
Part II contains optimal classification and regression trees.
Part III outlines prescriptive ML methods.
Part IV shows the power of optimization over randomization in design of experiments, exceptional responders, stable regression and the bootstrap.
Part V describes unsupervised methods in ML: optimal missing data imputation and interpretable clustering.
Part VI develops matrix ML methods: sparse PCA, sparse inverse covariance estimation, factor analysis, matrix and tensor completion
Part VII demonstrates how ML leads to interpretable optimization.

Philosophical principles of the book:

Interpretability is materially important in the real world.
Practical tractability not polynomial solvability leads to real world impact.
NP-hardness is an opportunity not an obstacle.
ML is inherently linked to optimization not probability theory.
Data represent an objective reality; models only exist in our imagination.
Optimization has a significant edge over randomization
The ultimate objective in the real world is prescription, not prediction.

[Lire la suite]



 
couverture du livre Ensemble Learning

Note 4.5 drapeau
Détails du livre
Sommaire
Critiques (1)
0 commentaire
 
 

Ensemble Learning

Pattern Classification Using Ensemble Methods

de
Public visé : Intermédiaire

Résumé de l'éditeur

This updated compendium provides a methodical introduction with a coherent and unified repository of ensemble methods, theories, trends, challenges, and applications. More than a third of this edition comprised of new materials, highlighting descriptions of the classic methods, and extensions and novel approaches that have recently been introduced.

Along with algorithmic descriptions of each method, the settings in which each method is applicable and the consequences and tradeoffs incurred by using the method is succinctly featured. R code for implementation of the algorithm is also emphasized.

The unique volume provides researchers, students and practitioners in industry with a comprehensive, concise and convenient resource on ensemble learning methods.

Édition : WorldScientific - 300 pages, 2e édition, 19 février 2019

ISBN10 : 9811201951 - ISBN13 : 9789811201950

Commandez sur www.amazon.fr :

122.31 € TTC (prix éditeur 116.50 € TTC)
Introduction to Machine Learning
Classification and Regression Trees
Introduction to Ensemble Learning
Ensemble Classification
Gradient Boosting Machines
Ensemble Diversity
Ensemble Selection
Error Correcting Output Codes
Evaluating Ensembles of Classifiers
Critique du livre par la rédaction Thibaut Cuvelier le 22 août 2020
Parmi les stratégies d'apprentissage en intelligence artificielle, les méthodes d'ensemble sont souvent plébiscitées. De fait, elles ont un pouvoir prédictif très fort, sans autant présenter une performance très faible lors de l'entraînement. Ce livre présente l'état actuel des connaissances dans ce domaine, sans nécessiter de grands prérequis : quelques notions d'apprentissage automatique, notamment avec des arbres de décision, et un peu de probabilités, c'est tout ce qu'il faut pour la lecture (même si un niveau plus avancé permettra d'en tirer plus d'enseignements).

L'auteur utilise un niveau de formalisation assez élevé, ce qui risque de rebuter les personnes allergiques aux mathématiques. Toutes les notations sont bien expliquées, le pseudocode est clair. Le long de l'ouvrage, on passe d'éléments très pratiques (mise en œuvre d'un algorithme donné en R) à d'autres, plus théoriques (comme les raisons pour lesquelles les méthodes d'ensemble devraient bien fonctionner, notamment à travers les liens avec la théorie de l'apprentissage). Le livre, assez complet, contient également une bibliographie scientifique fournie, qui oscille entre articles précurseurs incontournables et études numériques.

Le livre est bien ancré dans le présent, il présente assez longuement les méthodes les plus utilisées actuellement (comme GBM et son implémentation à base d'histogrammes). À l'occasion, l'auteur propose aussi l'une ou l'autre méthodologie pas encore présente dans la littérature. Outre les arbres (utilisés dans presque toutes les méthodes d'ensemble), l'ouvrage présente également des techniques à base de réseaux neuronaux. Le chapitre sur l'évaluation est très générique, il ne présente que peu d'éléments spécifiques aux méthodes d'ensemble. Sa section sur l'interprétation est décevante, elle n'introduit même pas la notion d'importance ou de modèle local (comme LIME).




 Commenter Signaler un problème

Avatar de dourouc05 dourouc05 - Responsable Qt & Livres https://www.developpez.com
le 22/08/2020 à 0:29
Ensemble Learning
Pattern Classification Using Ensemble Methods


This updated compendium provides a methodical introduction with a coherent and unified repository of ensemble methods, theories, trends, challenges, and applications. More than a third of this edition comprised of new materials, highlighting descriptions of the classic methods, and extensions and novel approaches that have recently been introduced.

Along with algorithmic descriptions of each method, the settings in which each method is applicable and the consequences and tradeoffs incurred by using the method is succinctly featured. R code for implementation of the algorithm is also emphasized.

The unique volume provides researchers, students and practitioners in industry with a comprehensive, concise and convenient resource on ensemble learning methods.

[Lire la suite]



 
couverture du livre Handbook of Machine Learning

Note 3 drapeau
Détails du livre
Sommaire
Critiques (1)
0 commentaire
 
 

Handbook of Machine Learning

Volume 2: Optimization and Decision Making

de
Public visé : Intermédiaire

Résumé de l'éditeur

Building on Handbook of Machine Learning - Volume 1: Foundation of Artificial Intelligence, this volume on Optimization and Decision Making covers a range of algorithms and their applications. Like the first volume, it provides a starting point for machine learning enthusiasts as a comprehensive guide on classical optimization methods. It also provides an in-depth overview on how artificial intelligence can be used to define, disprove or validate economic modeling and decision making concepts.

Édition : WorldScientific - 320 pages, 1re édition, 21 décembre 2019

ISBN10 : 9811205663 - ISBN13 : 9789811205668

Commandez sur www.amazon.fr :

113.70 € TTC (prix éditeur 113.70 € TTC)
Introduction
Classical Optimization
Genetic Algorithm
Particle Swarm Optimization
Simulated Annealing
Response Surface Method
Ant Colony Optimization
Bat and Firefly Algorithms
Artificial Immune System
Invasive Weed Optimization and Cuckoo Search Algorithms
Decision Trees and Random Forests
Hybrid Methods
Economic Modeling
Condition Monitoring
Rational Decision-Making
Conclusion Remarks
Critique du livre par la rédaction Thibaut Cuvelier le 9 août 2020
La science des données s'axe souvent sur la compréhension de données, mais ignore trop souvent la prise de décision : comment mettre en pratique les résultats d'un modèle d'apprentissage ? Comme le premier volume, les auteurs proposent une série d'études de cas rassemblés par technique, en exploitant les techniques du premier volume. On voit ainsi une série d'exemple où ces techniques sont appliquées et les résultats auxquels on peut arriver.

Cet ouvrage traite d'un grand nombre d'algorithmes d'optimisation : les algorithmes classiques d'optimisation continue, mais aussi toute la panoplie actuelle des métaheuristiques. En particulier, aucune méthode exacte n'est présentée pour les problèmes non convexes (alors qu'elles existent depuis belle lurette et sont efficaces pour un très grand nombre de cas pratiques). Ces techniques sont expliquées de manière très concise, mais claire.

Tout comme le premier volume, l'une des principales contributions de ce livre est, sans conteste, la quantité de références incluses, tant pour les algorithmes que leurs applications (qui représentent l'essentiel des références). Toutefois, les auteurs sont très convaincus par les métaheuristiques, au point d'en énoncé des contre-vérités : aucun de ces algorithmes ne peut trouver, à coup sûr, de solution globalement optimale.




 Commenter Signaler un problème

Avatar de dourouc05 dourouc05 - Responsable Qt & Livres https://www.developpez.com
le 08/08/2020 à 1:40
Handbook of Machine Learning
Volume 2: Optimization and Decision Making


Building on Handbook of Machine Learning - Volume 1: Foundation of Artificial Intelligence, this volume on Optimization and Decision Making covers a range of algorithms and their applications. Like the first volume, it provides a starting point for machine learning enthusiasts as a comprehensive guide on classical optimization methods. It also provides an in-depth overview on how artificial intelligence can be used to define, disprove or validate economic modeling and decision making concepts.

[Lire la suite]



 
couverture du livre Handbook of Machine Learning

Note 4 drapeau
Détails du livre
Sommaire
Critiques (1)
0 commentaire
 
 

Handbook of Machine Learning

Volume 1: Foundation of Artificial Intelligence

de
Public visé : Intermédiaire

Résumé de l'éditeur

This is a comprehensive book on the theories of artificial intelligence with an emphasis on their applications. It combines fuzzy logic and neural networks, as well as hidden Markov models and genetic algorithm, describes advancements and applications of these machine learning techniques and describes the problem of causality. This book should serves as a useful reference for practitioners in artificial intelligence.

Édition : WorldScientific - 328 pages, 1re édition, 22 octobre 2018

ISBN10 : 9813271221 - ISBN13 : 9789813271227

Commandez sur www.amazon.fr :

128.01 € TTC (prix éditeur 128.01 € TTC)
Introduction
Multi-layer Perceptron
Radial Basis Function
Automatic Relevance Determination
Bayesian Networks
Support Vector Machines
Fuzzy Logic
Rough Sets
Hybrid Machines
Auto-associative Networks
Evolving Networks
Causality
Gaussian Mixture Models
Hidden Markov Models
Reinforcement Learning
Conclusion Remarks
Critique du livre par la rédaction Thibaut Cuvelier le 7 août 2020
L'intelligence artificielle est la tarte à la crème du jour, avec moult livres (entre autres supports) qui traitent du sujet, de manière plus ou moins appropriée. Ce livre prend un point de vue assez différent de la majorité : il ne se focalise pas sur les algorithmes possibles ou sur des bibliothèques qui les implémentent, mais bien sur les applications de ces techniques (académiques, pour l'écrasante majorité). Quand beaucoup de ressources sur le sujet se focalisent sur la manière d'arriver à un objectif donné, l'auteur présente des résultats auxquels on peut arriver, en pratique.

La variété de domaines abordés impressionne, on a vraiment une vue d'ensemble de toute une série de techniques d'intelligence artificielle. Ce panorama n'est pas complet, bien sûr (on ne voit presque pas d'utilisation des arbres de décision, par exemple), mais il inclut des outils peu connus, comme ARD pour l'interprétabilité de réseaux neuronaux ; les statistiques bayésiennes sont bien représentées, y compris dans les réseaux neuronaux. Beaucoup de sens de l'expression « intelligence artificielle » sont décrits, y compris la logique floue et les techniques évolutionnaires. Toutefois, le chapitre sur les réseaux neuronaux est quelque peu décevant, il semble s'être arrêté avant les développements de ces dix dernières années (uniquement de petits réseaux). L'auteur inclut toujours les RBF, une technique tombée en désuétude (même si elle reste utile).

L'une des principales contributions de ce livre est, sans conteste, la quantité de références incluses, tant pour les algorithmes que leurs applications (qui représentent l'essentiel des références). Certaines références ne sont pas forcément très adaptées au contexte (articles de recherche opérationnelle pour de l'apprentissage, notamment) ; l'auteur de l'ouvrage se retrouve surreprésenté dans les citations.

L'ouvrage débute sur les chapeaux de roues : très clairement, le lecteur est censé avoir déjà une certaine expérience dans le domaine, sans quoi il sera directement perdu. On attend notamment de lui certaines connaissances en statistiques, en processus stochastiques et en traitement des données.

Les explications d'algorithmes sont toujours concises, aucune technique n'a droit à plus d'une dizaine de pages. Ce niveau de concision est parfois problématique pour des sujets plus techniques, comme l'inférence de causalité. Les applications sont elles aussi résumées, mais de manière moins sommaire : ces parties peuvent donner des idées pour nourrir sa pratique quotidienne de science des données.




 Commenter Signaler un problème

Avatar de dourouc05 dourouc05 - Responsable Qt & Livres https://www.developpez.com
le 07/08/2020 à 1:51
Handbook of Machine Learning
Volume 1: Foundation of Artificial Intelligence


This is a comprehensive book on the theories of artificial intelligence with an emphasis on their applications. It combines fuzzy logic and neural networks, as well as hidden Markov models and genetic algorithm, describes advancements and applications of these machine learning techniques and describes the problem of causality. This book should serves as a useful reference for practitioners in artificial intelligence.

[Lire la suite]



 
couverture du livre Fundamentals of Data Visualization

Note 4.5 drapeau
Détails du livre
Sommaire
Critiques (1)
0 commentaire
 
 

Fundamentals of Data Visualization

A Primer on Making Informative and Compelling Figures

de
Public visé : Intermédiaire

Résumé de l'éditeur

Effective visualization is the best way to communicate information from the increasingly large and complex datasets in the natural and social sciences. But with the increasing power of visualization software today, scientists, engineers, and business analysts often have to navigate a bewildering array of visualization choices and options.

This practical book takes you through many commonly encountered visualization problems, and it provides guidelines on how to turn large datasets into clear and compelling figures. What visualization type is best for the story you want to tell? How do you make informative figures that are visually pleasing? Author Claus O. Wilke teaches you the elements most critical to successful data visualization.

Explore the basic concepts of color as a tool to highlight, distinguish, or represent a value
Understand the importance of redundant coding to ensure you provide key information in multiple ways
Use the book’s visualizations directory, a graphical guide to commonly used types of data visualizations
Get extensive examples of good and bad figures
Learn how to use figures in a document or report and how employ them effectively to tell a compelling story

Édition : O'Reilly - 300 pages, 1re édition, 23 avril 2019

ISBN10 : 1492031089 - ISBN13 : 9781492031079

Commandez sur www.amazon.fr :

43.19 € TTC (prix éditeur 43.19 € TTC)
Introduction
From Data to Visualization
Visualizing Data: Mapping Data onto Aesthetics
Coordinate Systems and Axes
Color Scales
Directory of Visualizations
Visualizing Amounts
Visualizing Distributions: Histograms and Density Plots
Visualizing Distributions: Empirical Cumulative Distribution Functions and Q-Q Plots
Visualizing Many Distributions at Once
Visualizing Proportions
Visualizing Nested Proportions
Visualizing Associations Among Two or More Quantitative Variables
Visualizing Time Series and Other Functions of an Independent Variable
Visualizing Trends
Visualizing Geospatial Data
Visualizing Uncertainty
Principles of Figure Design
The Principle of Proportional Ink
Handling Overlapping Points
Common Pitfalls of Color Use
Redundant Coding
Multipanel Figures
Titles, Captions, and Tables
Balance the Data and the Context
Use Larger Axis Labels
Avoid Line Drawings
Don’t Go 3D
Miscellaneous Topics
Understanding the Most Commonly Used Image File Formats
Choosing the Right Visualization Software
Telling a Story and Making a Point
Critique du livre par la rédaction Thibaut Cuvelier le 18 juillet 2020
La visualisation est souvent le parent pauvre de l'enseignement scientifique : les étudiants sont censés savoir quand une visualisation est bonne, les formations se limitent à leur montrer comment réaliser l'une ou l'autre figure avec un logiciel donné. Par la suite, devenus professionnels, ces mêmes étudiants n'auront bien souvent pas les moyens de corriger le tir si nécessaire, à moins de s'y investir fortement. Ce livre cherche à fournir tous les éléments pour réaliser des visualisations efficaces qui transmettent le message prévu. Ce faisant, il ne montre que très peu de mathématiques et aucun bout de code, il n'utilise pas trop de jargon, pour s'ouvrir à un large public.

L'ouvrage est divisé en deux parties principales. La première se focalise sur les types de graphiques que l'on peut créer, les situations dans lesquelles ils s'avèrent intéressants. La deuxième partie est plus précise : elle traite le choix des couleurs et la préparation d'un graphique adapté aux daltoniens, par exemple.

Chaque chapitre est fortement illustré avec de bons et moins bons exemples de graphiques. Surtout, à chaque fois, l'auteur indique clairement ce qu'il en pense (clairement mauvais, simplement laid), mais aussi ses raisons (utilisation hasardeuse des couleurs et tailles, adéquation au type de données à représenter, etc.) ; ensuite, il donne des indications pour améliorer ces graphiques. Ces exemples ne sont pas abstraits, ils pourraient très bien provenir de la pratique quotidienne. Sur ces points, le livre se distingue de certains de ses concurrents, moins appliqués.

L'auteur suppose un certain niveau de connaissance d'un logiciel pour créer des graphiques (ne fût-ce qu'un tableur comme Excel, même s'il le décourage), car il ne parle jamais d'un seul logiciel en particulier. C'est à l'utilisateur de transposer les conseils donnés dans sa pratique de tous les jours. Le vocabulaire utilisé fait souvent penser à Leland Wilkinson (Grammar of Graphics, dont les principes sont repris par des bibliothèques comme ggplot ou plotnine). Le code utilisé pour générer toutes les visualisations est disponible en ligne (avec ggplot2 en R).

En termes de qualité esthétique, le livre est imprimé sur un papier de bonne qualité et en couleur, ce qui le rend très agréable à tenir en main.




 Commenter Signaler un problème

Avatar de dourouc05 dourouc05 - Responsable Qt & Livres https://www.developpez.com
le 18/07/2020 à 4:34
Fundamentals of Data Visualization
A Primer on Making Informative and Compelling Figures


Effective visualization is the best way to communicate information from the increasingly large and complex datasets in the natural and social sciences. But with the increasing power of visualization software today, scientists, engineers, and business analysts often have to navigate a bewildering array of visualization choices and options.

This practical book takes you through many commonly encountered visualization problems, and it provides guidelines on how to turn large datasets into clear and compelling figures. What visualization type is best for the story you want to tell? How do you make informative figures that are visually pleasing? Author Claus O. Wilke teaches you the elements most critical to successful data visualization.

Explore the basic concepts of color as a tool to highlight, distinguish, or represent a value
Understand the importance of redundant coding to ensure you provide key information in multiple ways
Use the book’s visualizations directory, a graphical guide to commonly used types of data visualizations
Get extensive examples of good and bad figures
Learn how to use figures in a document or report and how employ them effectively to tell a compelling story

[Lire la suite]



 
couverture du livre Practical Tableau

Note 5 drapeau
Détails du livre
Sommaire
Critiques (1)
0 commentaire
 
 

Practical Tableau

100 Tips, Tutorials, and Strategies from a Tableau Zen Master

de
Public visé : Intermédiaire

Résumé de l'éditeur

Whether you have some experience with Tableau software or are just getting started, this manual goes beyond the basics to help you build compelling, interactive data visualization applications. Author Ryan Sleeper, one of the world’s most qualified Tableau consultants, complements his web posts and instructional videos with this guide to give you a firm understanding of how to use Tableau to find valuable insights in data.

Over five sections, Sleeper—recognized as a Tableau Zen Master, Tableau Public Visualization of the Year author, and Tableau Iron Viz Champion—provides visualization tips, tutorials, and strategies to help you avoid the pitfalls and take your Tableau knowledge to the next level.

Practical Tableau sections include:

  • Fundamentals: get started with Tableau from the beginning
  • Chart types: use step-by-step tutorials to build a variety of charts in Tableau
  • Tips and tricks: learn innovative uses of parameters, color theory, how to make your Tableau workbooks run efficiently, and more
  • Framework: explore the INSIGHT framework, a proprietary process for building Tableau dashboards
  • Storytelling: learn tangible tactics for storytelling with data, including specific and actionable tips you can implement immediately

Édition : O'Reilly - 624 pages, 1re édition, 8 mai 2018

ISBN10 : 1491977310 - ISBN13 : 9781491977316

Commandez sur www.amazon.fr :

29.41 € TTC (prix éditeur 29.41 € TTC)
Fundamentals

How to Learn Tableau: My Top Five Tips
Tip #5: Follow the Community
Tip #4: Take a Training Class
Tip #3: Read Up
Tip #2: Practice
Tip #1: Tableau Public
Which Tableau Product Is Best for Me?
Tableau Desktop: Personal
Tableau Desktop: Professional
Tableau Reader
Tableau Public
Tableau Online
Tableau Server
An Introduction to Connecting to Data
Shaping Data for Use with Tableau
Getting a Lay of the Land
Tableau Terminology
View the Underlying Data
View the Number of Records
Dimension Versus Measure
What Is a Measure?
What Is a Dimension?
Discrete Versus Continuous
Five Ways to Make a Bar Chart/An Introduction to Aggregation
Five Ways to Create a Bar Chart in Tableau
An Introduction to Aggregation in Tableau
Line Graphs, Independent Axes, and Date Hierarchies
How to Make a Line Graph in Tableau
Independent Axes in Tableau
Date Hierarchies in Tableau
Marks Cards, Encoding, and Level of Detail
An Explanation of Level of Detail
An Introduction to Encoding
Label and Tooltip Marks Cards
An Introduction to Filters
Dimension Filters in Tableau
Measure Filters in Tableau
More Options with Filters
An Introduction to Calculated Fields
Why Use Calculated Fields?
More on Aggregating Calculated Fields
An Introduction to Table Calculations
An Introduction to Parameters
An Introduction to Sets
How to Create a Set in Tableau
Five Ways to Use Tableau Sets
An Introduction to Level of Detail Expressions
An Introduction to Dashboards and Distribution
An Introduction to Dashboards in Tableau
Distributing Tableau Dashboards

Chart Types

A Spreadsheet Is Not a Data Visualization
How to Make a Highlight Table
How to Make a Heat Map
How to Make a Dual-Axis Combination Chart
How to Make a Scatter Plot
How to Make a Tree Map
How to Make Sparklines
How to Make Small Multiples
How to Make Bullet Graphs
How to Make a Stacked Area Chart
How to Make a Histogram
How to Make a Box-and-Whisker Plot
How to Make a Symbol Map with Mapbox Integration
How to Make a Filled Map
How to Make a Dual-Axis Map
How to Map a Sequential Path
How to Map Anything in Tableau
How to Make Custom Polygon Maps
How to Make a Gantt Chart
How to Make a Waterfall Chart
How to Make Dual-Axis Slope Graphs
How to Make Donut Charts
How to Make Funnel Charts
Introducing Pace Charts in Tableau
How to Make a Pareto Chart
How to Make a Control Chart
How to Make Dynamic Dual-Axis Bump Charts
How to Make Dumbbell Charts
How and Why to Make Customizable Jitter Plots

Tips and Tricks

How to Create Icon-Based Navigation or Filters
How to Make a What-If Analysis Using Parameters
Three Ways to Add Alerts to Your Dashboards
Alert 1: Date Settings
Alert 2: Dynamic Labels
Alert 3: Heat Map Dashboard with Optional Tableau Server Email
How to Add Instructions or Methodology Using Custom Shape Palettes
Ten Tableau Data Visualization Tips I Learned from Google Analytics
Use a Maximum of 12 Dashboard Objects
Improve User Experience by Leveraging Dashboard Actions
Allow End Users to Change the Date Aggregation of Line Graphs
Keep Crosstab Widths to a Maximum of Ten Columns
Use a Vertical Navigation in the Left Column
Choose Five or Fewer Colors for Your Dashboards
Stick Mostly to Lines and Bars
Include Comparisons Such as Year Over Year
Bring Your Data Visualization to Life Using Segmentation
Include Alerts of Exceptional or Poor Performance
Three Alternative Approaches to Pie Charts in Tableau
Tableau Pie Chart Alternative #1: Bar Chart
Tableau Pie Chart Alternative #2: Stacked Bars or Areas
Tableau Pie Chart Alternative #3: My Recommended Approach
How to Create and Compare Segments
Five Design Tips for Enhancing Your Tableau Visualizations
Color
Typography
Layout
Usability
Details
Leveraging Color to Improve Your Data Visualization
The Color Wheel: Where It All Begins
The Psychology of Color
Using Custom Color Palettes in Tableau
Three Creative Ways to Use Dashboard Actions
A Primer on Tableau Dashboard Actions
Tableau Dashboard Action #1: Use Every Sheet as a Filter
Tableau Dashboard Action #2: Embed YouTube Videos in a Dashboard
Tableau Dashboard Action #3: Do a Google Search or Google Image Search from a Dashboard
How to Conditionally Format Individual Rows or Columns
How to Use Legends Per Measure
How to Conditionally Format in Tableau Like Excel
The Solution: A Calculated “Placeholder” Field
Five Tips for Creating Efficient Workbooks
Using Level of Detail Expressions to Create Benchmarks
Designing Device-Specific Dashboards
How to Make a Stoplight 100-Point Index
What Is a Stoplight Index?
Why Do I Have to Use the Fancy Approach You’re About to Share?
How to Set Up a 100-Point Index
Adding Color to a 100-Point Index Table
What If Outperforming the Comparison Is Bad?
The Case for One-Dimensional Unit Charts
How to Highlight a Dimension
Allow Users to Choose Measures and Dimensions
How to Dynamically Format Numbers
How to Change Date Aggregation Using Parameters
How to Equalize Year-Over-Year Dates
How to Filter Out Partial Time Periods
How to Compare Two Date Ranges on One Axis
How to Compare Unequal Date Ranges on One Axis
How to Make a Cluster Analysis
Five Tips for Making Your Tableau Public Viz Go Viral
Tip #1: Create “Remarkable” Content
Tip #2: Balance Data and Design
Tip #3: Leverage Search Engine Optimization (SEO)
Tip #4: Network
Tip #5: Use Reddit
Three Ways to Make Beautiful Bar Charts in Tableau
Approach #1: Use Formatting Available in Tableau
Approach #2: Use Axis Rulers to Add a Baseline
Approach #3: Add Caps to Bars
Three Ways to Make Lovely Line Graphs in Tableau
Approach #1: Use Formatting Available in Tableau
Approach #2: Maximize the Data-Ink Ratio
Approach #3: Leverage the Dual-Axis
Three Ways Psychological Schemas Can Improve Your Data Visualization
Schema #1: Spatial Context
Schema #2: Icons/Shapes/Symbols
Schema #3: Color

Framework

Introducing the INSIGHT Framework for Data Visualization
Identify the Business Question
Name KPIs
Shape the Data
Shaping Data for Use with Tableau
Joining and Aggregating Data
Laying Out Data for Specific Analyses
Shaping Data for the Iron Viz Example
Initial Concept
Gather Feedback
Hone Dashboard
Tell the Story

Storytelling

Introduction to Storytelling
A Data Visualization Competition—That’s Also an Analogy for the Data Visualization Process
Tip #1: Know Your Audience
Tip #2: Smooth the Excel Transition
Tip #3: Leverage Color
Tip #4: Keep It Simple
Tip #5: Use the Golden Ratio
Tip #6: Retell an Old Story
Tip #7: Don’t Neglect the Setup
Tip #8: Don’t Use Pie Charts
Tip #9: Provide Visual Context
Tip #10: Use Callout Numbers
Tip #11: Allow Discovery
Tip #12: Balance Data and Design
Tip #13: Eliminate Chartjunk (But Not Graphics)
Tip #14: Use Freeform Dashboard Design
Tip 15: Tell a Story
Critique du livre par la rédaction Thibaut Cuvelier le 29 mars 2020
À l'époque où les données sont reines, l'art des visualisations devient de plus en plus important, tant pour comprendre ces données que pour communiquer des faits significatifs. Ce livre se focalise sur ce deuxième axe, c'est-à-dire sur la création de graphiques efficaces et plaisants à l'œil. L'auteur donne aussi des conseils pour bien intégrer ces graphiques dans une narration contextualisée des données, notamment grâce à sa méthodologie INSIGHT (qui n'est en rien spécifique au logiciel Tableau). Le mot d'ordre principal est qu'un graphique se pense : on ne peut pas réaliser de bonnes visualisations en fonçant tête baissée.

Le livre commence par une présentation générale de l'outil Tableau (déjà quelque peu dépassée, l'édition Personal n'existant plus), des types principaux de graphiques disponibles et de la bonne manière de les utiliser (surtout pour les plus exotiques). L'ouvrage est composé de cent chapitres très courts et indépendants, chacun tient dans la durée d'une pause café. Il peut se lire de manière linéaire ou comme une référence : chaque chapitre est écrit comme un petit tutoriel précis, focalisé sur une fonctionnalité du logiciel. L'auteur offre régulièrement un retour personnel d'expérience ou inspiré de la manière dont d'autres ont conçu des visualisations efficaces. L'objectif est de montrer une bonne manière d'utiliser le logiciel, mais sûrement pas la seule. Vu que bon nombre d'utilisateurs viennent de l'environnement Excel, les différences avec Tableau sont régulièrement mises en avant, pour faciliter la prise en main.

Cependant, on peut regretter que le niveau monte très vite dans les premiers chapitres. Il vaut mieux avoir une petite expérience de Tableau pour profiter un maximum de l'ouvrage, sans quoi le vocabulaire spécifique (utilisé dès le début) pourrait être rebutant.

Les figures imprimées en couleur sont les bienvenues dans un livre sur la visualisation, bien qu'elles ne soient pas strictement nécessaires. On ne peut pas se plaindre de la quantité d'illustrations, même si certaines sont trop petites pour être lisibles sur papier.




 Commenter Signaler un problème

Avatar de dourouc05 dourouc05 - Responsable Qt & Livres https://www.developpez.com
le 30/03/2020 à 0:43
Practical Tableau
100 Tips, Tutorials, and Strategies from a Tableau Zen Master


Whether you have some experience with Tableau software or are just getting started, this manual goes beyond the basics to help you build compelling, interactive data visualization applications. Author Ryan Sleeper, one of the world’s most qualified Tableau consultants, complements his web posts and instructional videos with this guide to give you a firm understanding of how to use Tableau to find valuable insights in data.

Over five sections, Sleeper—recognized as a Tableau Zen Master, Tableau Public Visualization of the Year author, and Tableau Iron Viz Champion—provides visualization tips, tutorials, and strategies to help you avoid the pitfalls and take your Tableau knowledge to the next level.

Practical Tableau sections include:

  • Fundamentals: get started with Tableau from the beginning
  • Chart types: use step-by-step tutorials to build a variety of charts in Tableau
  • Tips and tricks: learn innovative uses of parameters, color theory, how to make your Tableau workbooks run efficiently, and more
  • Framework: explore the INSIGHT framework, a proprietary process for building Tableau dashboards
  • Storytelling: learn tangible tactics for storytelling with data, including specific and actionable tips you can implement immediately


[Lire la suite]



 
couverture du livre Data Science from Scratch

Note 5 drapeau
Détails du livre
Sommaire
Critiques (1)
0 commentaire
 
 

Data Science from Scratch

First Principles with Python

de
Public visé : Débutant

Résumé de l'éditeur

To really learn data science, you should not only master the tools—data science libraries, frameworks, modules, and toolkits—but also understand the ideas and principles underlying them. Updated for Python 3.6, this second edition of Data Science from Scratch shows you how these tools and algorithms work by implementing them from scratch.

If you have an aptitude for mathematics and some programming skills, author Joel Grus will help you get comfortable with the math and statistics at the core of data science, and with the hacking skills you need to get started as a data scientist. Packed with new material on deep learning, statistics, and natural language processing, this updated book shows you how to find the gems in today’s messy glut of data.

Get a crash course in Python
Learn the basics of linear algebra, statistics, and probability—and how and when they’re used in data science
Collect, explore, clean, munge, and manipulate data
Dive into the fundamentals of machine learning
Implement models such as k-nearest neighbors, Naïve Bayes, linear and logistic regression, decision trees, neural networks, and clustering
Explore recommender systems, natural language processing, network analysis, MapReduce, and databases

Édition : O'Reilly - 406 pages, 2e édition, 16 mai 2019

ISBN10 : 1492041130 - ISBN13 : 9781492041139

Commandez sur www.amazon.fr :

40.74 € TTC (prix éditeur 40.74 € TTC)
Preface to the Second Edition
Preface to the First Edition
Introduction
A Crash Course in Python
Visualizing Data
Linear Algebra
Statistics
Probability
Hypothesis and Inference
Gradient Descent
Getting Data
Working with Data
Machine Learning
k-Nearest Neighbors
Naive Bayes
Simple Linear Regression
Multiple Regression
Logistic Regression
Decision Trees
Neural Networks
Deep Learning
Clustering
Natural Language Processing
Network Analysis
Recommender Systems
Databases and SQL
MapReduce
Data Ethics
Go Forth and Do Data Science
Critique du livre par la rédaction Thibaut Cuvelier le 4 mars 2020
La science des données est un domaine tellement à la mode qu'elle attire des gens de tout horizon… et des livres de qualité variable, tentant de répondre à la demande. La plupart des ouvrages creusent profondément la théorie et les mathématiques derrière chaque algorithme (pour l'utilisation des techniques, les auteurs renvoient à la documentation, s'ils prennent cette peine) ou brossent un tableau tellement rapide qu'on ne comprend pas ce qui se passe vraiment (par contre, l'API d'une bibliothèque très spécifique est expliquée en long et en large). Ce livre cherche une troisième voie, entre une compréhension des algorithmes et une approche pragmatique : la compréhension d'un algorithme vient en l'implémentant, pour bien en saisir les tenants et les aboutissants. Cette maxime est poussée jusque dans ses retranchements, l'un des derniers chapitres présentant brièvement l'utilisation de bases de données SQL… avec une implémentation très basique d'un tel système.

Pour s'ouvrir à un public aussi large que possible, les prérequis sont très limités : des compétences en programmation (un chapitre entier est dédié au langage Python, utilisé dans tout le livre) et une aversion limitée envers les mathématiques (tous les concepts nécessaires étant rapidement expliqués, en prenant surtout un point de vue algorithmique). De là, l'auteur présente tout un cycle de projet de science des données, depuis l'acquisition et le nettoyage des données jusqu'au déploiement d'un modèle d'apprentissage, avec des incursions du côté du partitionnement des données ou de l'analyse de graphes.

Même si les algorithmes sont implémentés de zéro, l'auteur n'oublie pas le lien avec la pratique : presque personne n'implémente lui-même des algorithmes classiques. Ainsi, on a droit à des liens vers scikit-learn ou d'autres bibliothèques Python, selon les cas. Les fonctions développées ont une interface assez proche de celles proposées par ces bibliothèques, mais la ressemblance est la plus frappante pour les réseaux neuronaux (l'interface étant très proche de la classe Sequential de Keras). La grande différence avec les bibliothèques courantes réside dans les structures de données : pour avoir un code aussi explicite et clair que possible, l'auteur utilise des structures de données très précises telles que des listes de tuples nommés ou des dictionnaires, là où en pratique il faut utiliser des matrices pour des raisons de performance.

Si l'essentiel du livre s'intéresse au côté algorithmique de la science des données, l'auteur met l'accent sur les statistiques et fait autant que possible des liens avec des approches plus formelles pour les raisonnements : une intuition sur les données que l'on peut acquérir à l'aide d'un algorithme n'a peut-être aucun sens statistique, auquel cas cette intuition ne vaut pas grand-chose. De même, l'interprétabilité des modèles est mise en avant.

Le code proposé est toujours propre et exploite les dernières possibilités de Python. Le style d'écriture est très informel, ce qui colle parfaitement bien au public visé. On peut cependant regretter le traitement de la visualisation, un sujet très important en science des données, mais assez rapidement brossé.

En peu de mots : le pari de l'auteur est bien tenu !




 Commenter Signaler un problème

Avatar de dourouc05 dourouc05 - Responsable Qt & Livres https://www.developpez.com
le 03/03/2020 à 5:09
Data Science from Scratch
First Principles with Python


To really learn data science, you should not only master the tools—data science libraries, frameworks, modules, and toolkits—but also understand the ideas and principles underlying them. Updated for Python 3.6, this second edition of Data Science from Scratch shows you how these tools and algorithms work by implementing them from scratch.

If you have an aptitude for mathematics and some programming skills, author Joel Grus will help you get comfortable with the math and statistics at the core of data science, and with the hacking skills you need to get started as a data scientist. Packed with new material on deep learning, statistics, and natural language processing, this updated book shows you how to find the gems in today’s messy glut of data.

Get a crash course in Python
Learn the basics of linear algebra, statistics, and probability—and how and when they’re used in data science
Collect, explore, clean, munge, and manipulate data
Dive into the fundamentals of machine learning
Implement models such as k-nearest neighbors, Naïve Bayes, linear and logistic regression, decision trees, neural networks, and clustering
Explore recommender systems, natural language processing, network analysis, MapReduce, and databases

[Lire la suite]



 
couverture du livre Generative Deep Learning

Note 5 drapeau
Détails du livre
Sommaire
Critiques (1)
0 commentaire
 
 

Generative Deep Learning

Teaching Machines to Paint, Write, Compose, and Play

de
Public visé : Intermédiaire

Résumé de l'éditeur

Generative modeling is one of the hottest topics in AI. It's now possible to teach a machine to excel at human endeavors such as painting, writing, and composing music. With this practical book, machine-learning engineers and data scientists will discover how to re-create some of the most impressive examples of generative deep learning models, such as variational autoencoders, generative adversarial networks (GANs), encoder-decoder models, and world models.

Author David Foster demonstrates the inner workings of each technique, starting with the basics of deep learning before advancing to some of the most cutting-edge algorithms in the field. Through tips and tricks, you'll understand how to make your models learn more efficiently and become more creative.

Discover how variational autoencoders can change facial expressions in photos
Build practical GAN examples from scratch, including CycleGAN for style transfer and MuseGAN for music generation
Create recurrent generative models for text generation and learn how to improve the models using attention
Understand how generative models can help agents to accomplish tasks within a reinforcement learning setting
Explore the architecture of the Transformer (BERT, GPT-2) and image generation models such as ProGAN and StyleGAN

Édition : O'Reilly - 350 pages, 1re édition, 12 juillet 2019

ISBN10 : 1492041947 - ISBN13 : 9781492041948

Commandez sur www.amazon.fr :

46.18 € TTC (prix éditeur 46.18 € TTC)
Preface

Introduction to Generative Deep Learning

Generative Modeling
Deep Learning
Variational Autoencoders
Generative Adversarial Networks

Teaching Machines to Paint, Write, Compose, and Play

Paint
Write
Compose
Play
The Future of Generative Modeling
Conclusion
Critique du livre par la rédaction Thibaut Cuvelier le 4 mars 2020
L'apprentissage automatique a divers domaines d'application, l'un des plus étonnants est sans doute la génération de contenu : images, textes, sons, etc. Depuis quelques années, on voit de plus en plus de démonstrations bluffantes de transfert de style d'un peintre sur des photographies modernes, de rédaction automatisée de texte, etc. Ce livre se focalise sur les principes sous-jacents à ces techniques et sur leur mise en œuvre à l'aide de réseaux neuronaux.

L'auteur sépare assez clairement les chapitres en deux parties. La première aborde essentiellement la théorie, avec les architectures principales de réseaux neuronaux appliquées aux problèmes de génération de contenu. On y découvre quelques applications basiques, mais les plus intéressantes doivent attendre la seconde moitié. Là, les schémas de base sont déclinés pour atteindre les meilleurs résultats actuels sur des tâches de génération de contenu. Il n'y a pas d'objectif d'exhaustivité l'auteur a fait un choix raisonné de techniques variées, pour montrer un maximum d'outils généralisables à d'autres tâches. Il n'hésite par ailleurs pas à donner des références dans la littérature scientifique, abondante dans le domaine, pour approfondir le sujet.

Aucun chapitre ne reste abstrait, puisque chaque technique est implémentée en Python. Il ne manque aucun détail, tout est explicite et expliqué, l'auteur y prête une attention particulière : on y retrouve les architectures de réseaux neuronaux, mais aussi les algorithmes à employer pour arriver à produire le résultat attendu. Les architectures génériques ne sont présentées qu'une seule fois, après quoi leur utilisation est cachée derrière des classes de l'auteur. Par ailleurs, tout le code est disponible sur GitHub, pour faciliter sa réutilisation.

Les applications sont variées et ne sont pas limitées à une forme artificielle d'art. En effet, l'auteur détaille aussi la génération de réponses à des questions ou encore l'inclusion d'éléments génératifs dans des techniques d'apprentissage par renforcement. Les principes sont similaires, mais on n'attend pas à les voir employés dans ce contexte.

On peut aussi apprécier l'impression en couleurs du livre, qui permet aussi la coloration syntaxique du code. Ce petit plus est bien agréable. De plus, le style de l'auteur est attrayant, très peu académique : l'ouvrage se lit très facilement.




 Commenter Signaler un problème

Avatar de dourouc05 dourouc05 - Responsable Qt & Livres https://www.developpez.com
le 03/03/2020 à 5:08
Generative Deep Learning
Teaching Machines to Paint, Write, Compose, and Play


Generative modeling is one of the hottest topics in AI. It's now possible to teach a machine to excel at human endeavors such as painting, writing, and composing music. With this practical book, machine-learning engineers and data scientists will discover how to re-create some of the most impressive examples of generative deep learning models, such as variational autoencoders, generative adversarial networks (GANs), encoder-decoder models, and world models.

Author David Foster demonstrates the inner workings of each technique, starting with the basics of deep learning before advancing to some of the most cutting-edge algorithms in the field. Through tips and tricks, you'll understand how to make your models learn more efficiently and become more creative.

Discover how variational autoencoders can change facial expressions in photos
Build practical GAN examples from scratch, including CycleGAN for style transfer and MuseGAN for music generation
Create recurrent generative models for text generation and learn how to improve the models using attention
Understand how generative models can help agents to accomplish tasks within a reinforcement learning setting
Explore the architecture of the Transformer (BERT, GPT-2) and image generation models such as ProGAN and StyleGAN

[Lire la suite]



 
couverture du livre Practical Time Series Analysis

Note 4.5 drapeau
Détails du livre
Sommaire
Critiques (1)
0 commentaire
 
 

Practical Time Series Analysis

Prediction With Statistics and Machine Learning

de
Public visé : Débutant

Résumé de l'éditeur

Time series data analysis is increasingly important due to the massive production of such data through the internet of things, the digitalization of healthcare, and the rise of smart cities. As continuous monitoring and data collection become more common, the need for competent time series analysis with both statistical and machine learning techniques will increase.

Covering innovations in time series data analysis and use cases from the real world, this practical guide will help you solve the most common data engineering and analysis challengesin time series, using both traditional statistical and modern machine learning techniques. Author Aileen Nielsen offers an accessible, well-rounded introduction to time series in both R and Python that will have data scientists, software engineers, and researchers up and running quickly.

You'll get the guidance you need to confidently:

Find and wrangle time series data
Undertake exploratory time series data analysis
Store temporal data
Simulate time series data
Generate and select features for a time series
Measure error
Forecast and classify time series with machine or deep learning
Evaluate accuracy and performance

Édition : O'Reilly - 400 pages, 1re édition, 1er novembre 2019

ISBN10 : 1492041653 - ISBN13 : 9781492041658

Commandez sur www.amazon.fr :

44.81 € TTC (prix éditeur 44.81 € TTC)
Preface
Time Series: An Overview and a Quick History
Finding and Wrangling Time Series Data
Exploratory Data Analysis for Time Series
Simulating Time Series Data
Storing Temporal Data
Statistical Models for Time Series
State Space Models for Time Series
Generating and Selecting Features for a Time Series
Machine Learning for Time Series
Deep Learning for Time Series
Measuring Error
Performance Considerations in Fitting and Serving Time Series Models
Healthcare Applications
Financial Applications
Time Series for Government
Time Series Packages
Forecasts About Forecasting
Critique du livre par la rédaction Thibaut Cuvelier le 18 février 2020
Les séries temporelles se présentent dans de plus en plus de situations, alors que, il y a peu, elles étaient étudiées presque uniquement dans un contexte financier. Ce livre cherche à présenter le champ des utilisations possibles de l'analyse des séries chronologiques dans divers domaines ; cependant, son auteure cherche l'exhaustivité dans les méthodes pour approcher les séries temporelles plutôt que dans leur application. Elle nous livre ici une véritable revue en règle des techniques d'analyse et de prédiction de séries chronologiques, tant les plus classiques et statistiques (ARIMA et famille) que les plus récentes (de l'apprentissage automatique jusqu'à l'apprentissage profond). De fait, les méthodes les plus simples sont parfois les plus appropriées.

Alors que la plupart des ouvrages sur le sujet requièrent de bonnes connaissances en statistiques de la part du lecteur, ce n'est pas le cas de celui-ci. Pour une plus grande ouverture, l'auteure ne suppose que des bases en programmation et en statistiques, mais c'est à peu près tout : tous les concepts nécessaires sont brièvement réexpliqués, au besoin. De fait, le parti pris est véritablement pratique. Ainsi, ceux qui souhaitent approfondir la théorie derrière certaines méthodes ne trouveront pas leur bonheur ici, les explications purement mathématiques étant réduites à leur plus simple expression ; par contre, on a droit à des explications sur les faiblesses potentielles des mécanismes d'acquisition de données et sur le nettoyage des données qui suit forcément leur récupération. Ce n'est pas pour autant un livre de recettes : l'auteure cherche toujours à détailler le pourquoi, bien plus que le comment (qui est l'apanage des documentations techniques). Il n'y a d'ailleurs que rarement un intérêt à coder soi-même des algorithmes classiques, ce point est clairement expliqué par l'auteure.

On peut néanmoins se demander pourquoi les codes sont disponibles alternativement en R et en Python : dans certaines situations, l'un des deux langages a un écosystème légèrement plus développé dans un domaine particulier, mais les justifications manquent le reste du temps. Les passages de l'un à l'autre langage sont rarement détaillés, alors qu'on aimerait parfois savoir s'il est vraiment important de s'investir dans un autre langage pour l'analyse de données. En particulier, l'auteure montre un certain nombre de visualisations, mais ne le fait qu'en R, jamais en Python…

Le livre est chargé en références, souvent vers des sites comme StackOverflow : les explications n'y sont souvent pas très détaillées (pas comme dans un article scientifique), mais raisonnablement faciles à comprendre. On pourrait juste regretter que les liens pointent plutôt vers des questions que vers des réponses. De même, les logiciels existants sont bien référencés. L'ouvrage apporte, par rapport à d'autres sources, des listes de logiciels et bibliothèques pas forcément parmi les plus connus, mais surtout parmi les plus utiles — en pratique.




 Commenter Signaler un problème

Avatar de dourouc05 dourouc05 - Responsable Qt & Livres https://www.developpez.com
le 18/02/2020 à 21:55
Practical Time Series Analysis

Prediction With Statistics and Machine Learning

de Aileen Nielsen

Time series data analysis is increasingly important due to the massive production of such data through the internet of things, the digitalization of healthcare, and the rise of smart cities. As continuous monitoring and data collection become more common, the need for competent time series analysis with both statistical and machine learning techniques will increase.

Covering innovations in time series data analysis and use cases from the real world, this practical guide will help you solve the most common data engineering and analysis challengesin time series, using both traditional statistical and modern machine learning techniques. Author Aileen Nielsen offers an accessible, well-rounded introduction to time series in both R and Python that will have data scientists, software engineers, and researchers up and running quickly.

You'll get the guidance you need to confidently:

Find and wrangle time series data
Undertake exploratory time series data analysis
Store temporal data
Simulate time series data
Generate and select features for a time series
Measure error
Forecast and classify time series with machine or deep learning
Evaluate accuracy and performance
Voir les critiques

 
couverture du livre Hands-On Unsupervised Learning Using Python

Note 2.5 drapeau
Détails du livre
Sommaire
Critiques (1)
0 commentaire
 
 

Hands-On Unsupervised Learning Using Python

How to Build Applied Machine Learning Solutions from Unlabeled Data

de
Public visé : Débutant

Résumé de l'éditeur

Many industry experts consider unsupervised learning the next frontier in artificial intelligence, one that may hold the key to general artificial intelligence. Since the majority of the world's data is unlabeled, conventional supervised learning cannot be applied. Unsupervised learning, on the other hand, can be applied to unlabeled datasets to discover meaningful patterns buried deep in the data, patterns that may be near impossible for humans to uncover.

Author Ankur Patel shows you how to apply unsupervised learning using two simple, production-ready Python frameworks: Scikit-learn and TensorFlow using Keras. With code and hands-on examples, data scientists will identify difficult-to-find patterns in data and gain deeper business insight, detect anomalies, perform automatic feature engineering and selection, and generate synthetic datasets. All you need is programming and some machine learning experience to get started.

  • Compare the strengths and weaknesses of the different machine learning approaches: supervised, unsupervised, and reinforcement learning
  • Set up and manage machine learning projects end-to-end
  • Build an anomaly detection system to catch credit card fraud
  • Clusters users into distinct and homogeneous groups
  • Perform semisupervised learning
  • Develop movie recommender systems using restricted Boltzmann machines
  • Generate synthetic images using generative adversarial networks

Édition : O'Reilly - 400 pages, 1re édition, 18 mars 2019

ISBN10 : 1492035645 - ISBN13 : 9781492035640

Commandez sur www.amazon.fr :

43.01 € TTC (prix éditeur 43.01 € TTC)
Fundamentals of Unsupervised Learning

Unsupervised Learning in the Machine Learning Ecosystem
End-to-End Machine Learning Project

Unsupervised Learning Using Scikit-Learn

Dimensionality Reduction
Anomaly Detection
Clustering
Group Segmentation

Unsupervised Learning Using TensorFlow and Keras

Autoencoders
Hands-On Autoencoder
Semisupervised Learning

Deep Unsupervised Learning Using TensorFlow and Keras

Recommender Systems Using Restricted Boltzmann Machines
Feature Detection Using Deep Belief Networks
Generative Adversarial Networks
Time Series Clustering
Critique du livre par la rédaction Thibaut Cuvelier le 2 juillet 2019
Le titre de cet ouvrage promet une belle partie appliquée, c'est effectivement ce que l'on ressent à sa lecture : on ne compte plus les lignes de code pour bien montrer ce que l'auteur fait, notamment dans ses graphiques (le code les générant étant présent dans le livre in extenso). Tout le code est d'ailleurs écrit avec Python 3, en utilisant les dernières versions des bibliothèques, afin de rester utilisable aussi longtemps que possible. Ce côté appliqué est présent tout au long du livre, l'auteur cherche toujours à présenter une utilité aux algorithmes qu'il aborde, il ne se contente pas d'un inventaire à la Prévert, le lien avec les applications réalistes est toujours présent.

L'ouvrage est construit progressivement, avec des techniques de plus en plus avancées, en présentant d'abord brièvement les concepts théoriques (sans mathématiques, car tel n'est pas le but du livre), les algorithmes, puis en plongeant dans la pratique. Les approches sont bien souvent comparées sur un même exemple, afin d'en voir les avantages et inconvénients. Cependant, l'apprentissage non supervisé n'est vu que sous un seul angle : l'exploitation de données sans étiquettes dans l'objectif d'effectuer des prédictions, c'est-à-dire comme une approche entièrement supervisée. Ce faisant, tous les aspects d'analyse de données sont négligés : il aurait été agréable, par exemple, de voir une application de partitionnement de données pour comprendre ce qu'elles contiennent (comme déterminer, sans a priori, les différentes manières de participer à un jeu). Au contraire, dans les exemples de partitionnement, on sait d'avance le nombre de classes que l'on cherche.

Au niveau de la présentation, une grande quantité de code et parfois d'images est redondante. Dans les premiers exemples, qui montrent plusieurs algorithmes d'apprentissage supervisé, la validation croisée est présentée à chaque fois, au lieu de se focaliser sur les différences entre les algorithmes. Chaque chapitre commence par une bonne page d'importation de modules Python (y compris des modules qui ne sont pas utilisés dans ce chapitre !). Certaines parties présentent une grande quantité d'images disposées de telle sorte qu'elles prennent un maximum de place (six images de taille raisonnable présentées sur trois pages, alors qu'en les réduisant un peu on aurait pu tout faire tenir sur une seule face…). Par ailleurs, toutes les images sont en noir et blanc, mais ont été conçues en couleurs : il est souvent difficile de s'y retrouver, car l'information de couleur est très exploitée (notamment pour présenter plusieurs courbes : elles ont sûrement des couleurs très différentes, mais les niveaux de gris se ressemblent trop pour que l'on arrive à faire la distinction entre les courbes).

Le côté technique m'a vraiment déçu. Les algorithmes sont présentés très rapidement, leurs paramètres sont quelque peu vus comme des boîtes noires ou simplement ignorés : comment peut-on en comprendre l'impact sur la solution ? Le chapitre sur la détection d'anomalies n'est vu que comme une application de la réduction de dimensionnalité, on ne trouve aucune discussion des algorithmes spécifiquement prévus pour cette tâche (forêts d'isolation, SVM à une classe, etc.), ce qui est assez réducteur. On ne trouve aucune mention des plongements (comme word2vec pour la représentation de mots) dans la section sur les autoencodeurs, alors que c'en est une application très importante.

Le public ciblé semble n'avoir qu'une assez faible expérience en apprentissage automatique. Le livre sera surtout utile à ceux qui veulent une introduction rapide et pas trop poussée au domaine de l'apprentissage non supervisé, un survol du domaine en abordant toutes ses facettes principales. Ceux qui se demandent à quoi l'apprentissage non supervisé peut bien être utile seront servis, mais n'en verront pas toutes les possibilités.




 Commenter Signaler un problème

Avatar de dourouc05 dourouc05 - Responsable Qt & Livres https://www.developpez.com
le 12/07/2019 à 19:00
Hands-On Unsupervised Learning Using Python



Many industry experts consider unsupervised learning the next frontier in artificial intelligence, one that may hold the key to general artificial intelligence. Since the majority of the world's data is unlabeled, conventional supervised learning cannot be applied. Unsupervised learning, on the other hand, can be applied to unlabeled datasets to discover meaningful patterns buried deep in the data, patterns that may be near impossible for humans to uncover.

Author Ankur Patel shows you how to apply unsupervised learning using two simple, production-ready Python frameworks: Scikit-learn and TensorFlow using Keras. With code and hands-on examples, data scientists will identify difficult-to-find patterns in data and gain deeper business insight, detect anomalies, perform automatic feature engineering and selection, and generate synthetic datasets. All you need is programming and some machine learning experience to get started.

  • Compare the strengths and weaknesses of the different machine learning approaches: supervised, unsupervised, and reinforcement learning
  • Set up and manage machine learning projects end-to-end
  • Build an anomaly detection system to catch credit card fraud
  • Clusters users into distinct and homogeneous groups
  • Perform semisupervised learning
  • Develop movie recommender systems using restricted Boltzmann machines
  • Generate synthetic images using generative adversarial networks

Voir les critiques.

 
couverture du livre Machine Learning for Data Streams

Note 4.5 drapeau
Détails du livre
Sommaire
Critiques (1)
1 commentaire
 
 

Machine Learning for Data Streams

With Practical Examples in MOA

de
Public visé : Expert

Résumé de l'éditeur

A hands-on approach to tasks and techniques in data stream mining and real-time analytics, with examples in MOA, a popular freely available open-source software framework.

Today many information sources—including sensor networks, financial markets, social networks, and healthcare monitoring—are so-called data streams, arriving sequentially and at high speed. Analysis must take place in real time, with partial data and without the capacity to store the entire data set. This book presents algorithms and techniques used in data stream mining and real-time analytics. Taking a hands-on approach, the book demonstrates the techniques using MOA (Massive Online Analysis), a popular, freely available open-source software framework, allowing readers to try out the techniques after reading the explanations.

The book first offers a brief introduction to the topic, covering big data mining, basic methodologies for mining data streams, and a simple example of MOA. More detailed discussions follow, with chapters on sketching techniques, change, classification, ensemble methods, regression, clustering, and frequent pattern mining. Most of these chapters include exercises, an MOA-based lab session, or both. Finally, the book discusses the MOA software, covering the MOA graphical user interface, the command line, use of its API, and the development of new methods within MOA. The book will be an essential reference for readers who want to use data stream mining as a tool, researchers in innovation or data stream mining, and programmers who want to create new algorithms for MOA.

Édition : MIT Press - 288 pages, 1re édition, 2 mars 2018

ISBN10 : 0262037793 - ISBN13 : 9780262037792

Commandez sur www.amazon.fr :

46.84 € TTC (prix éditeur 46.84 € TTC)
Introduction

Introduction
Big Data Stream Mining
Hands-on Introduction to MOA

Stream Mining

Streams and Sketches
Dealing with Change
Classification
Ensemble Methods
Regression
Clustering
Frequent Pattern Mining

The MOA Software

Introduction to MOA and Its Ecosystem
The Graphical User Interface
Using the Command Line
Using the API
Developing New Methods in MOA
Critique du livre par la rédaction Thibaut Cuvelier le 13 avril 2019
L'apprentissage automatique est un domaine aux multiples facettes. Ce livre dépoussière l'une d'entre elles qui n'est que trop peu explorée dans la littérature : l'étude des flux de données, où les algorithmes doivent effectuer des prédictions, mais surtout s'adapter en temps réel à des données disponibles au compte-gouttes (même si ce dernier peut avoir un très bon débit !). Les auteurs font la part belle aux spécificités de ce paradigme : les calculs doivent être effectués très rapidement, on n'a presque pas de temps disponible par échantillon, ni de mémoire d'ailleurs.

Structurellement, on retrouve trois parties bien distinctes :

  • une introduction très générale au domaine, qui montre néanmoins l'essentiel de MOA, un logiciel dédié aux tâches d'apprentissage dans les flux ;
  • une présentation plus détaillée des algorithmes applicables à des flux, que ce soit pour les résumer, pour en dériver des modèles de prédiction ou pour explorer les données. Cette partie devrait plaire aux étudiants, professionnels et chercheurs qui souhaitent se lancer dans le domaine, notamment avec ses nombreuses références (pour les détails de certains algorithmes moins intéressants ou trop avancés : on sent un vrai lien entre le livre et la recherche actuelle dans le domaine). Les algorithmes sont détaillés avec un certain niveau de formalisme mathématique, pour bien comprendre ce qu'ils font (et pourquoi ils garantissent une certaine approximation de la réalité) ;
  • finalement, un guide d'utilisation assez succinct de MOA, avec un bon nombre de captures d'écran du logiciel (imprimées en couleurs !), qui détaille les différents onglets de l'interface graphique (à l'aide de listes très descriptives, mais liées aux autres chapitres de l'ouvrage) et passe rapidement sur les interfaces en ligne de commande et de programmation (ces deux derniers chapitres sont brefs et doivent être complémentés par celui sur l'interface graphique, qui contient les éléments essentiels).


On peut néanmoins reprocher quelques références vers la suite du livre (la section 4.6.2 considère parfois le contenu de la 4.9.2 intégré, par exemple), mais aussi l'omniprésence de MOA : on a l'impression que les auteurs se sont focalisés sur les algorithmes disponibles dans cette boîte à outils, plutôt que de présenter les algorithmes les plus intéressants en général. Cette remarque est toutefois assez mineure, au vu de l'exhaustivité de MOA.

À noter : le livre est aussi disponible gratuitement au format HTML, les auteurs répondant aux commentaires qui leur sont laissés.




 Commenter Signaler un problème

Avatar de Malick Malick - Community Manager https://www.developpez.com
le 22/04/2019 à 0:24
Bonjour chers membres du Club,

Je vous invite à lire la critique que Dourouc05 a faite pour vous au sujet du livre :

L'apprentissage automatique est un domaine aux multiples facettes. Ce livre dépoussière l'une d'entre elles qui n'est que trop peu explorée dans la littérature : l'étude des flux de données, où les algorithmes doivent effectuer des prédictions, mais surtout s'adapter en temps réel à des données disponibles au compte-gouttes (même si ce dernier peut avoir un très bon débit !).
Les auteurs font la part belle aux spécificités de ce paradigme : les calculs doivent être effectués très rapidement, on n'a presque pas de temps disponible par échantillon, ni de mémoire d'ailleurs..Lire la suite de la critique...

Bonne lecture

 
couverture du livre Natural Language Processing with Python

Note 5 drapeau
Détails du livre
Sommaire
Critiques (2)
7 commentaires
 
 

Natural Language Processing with Python

de
Public visé : Intermédiaire

Résumé de l'éditeur

This book offers a highly accessible introduction to natural language processing, the field that supports a variety of language technologies, from predictive text and email filtering to automatic summarization and translation. With it, you'll learn how to write Python programs that work with large collections of unstructured text. You'll access richly annotated datasets using a comprehensive range of linguistic data structures, and you'll understand the main algorithms for analyzing the content and structure of written communication.

Packed with examples and exercises, Natural Language Processing with Python will help you:
  • Extract information from unstructured text, either to guess the topic or identify "named entities"
  • Analyze linguistic structure in text, including parsing and semantic analysis
  • Access popular linguistic databases, including WordNet and treebanks
  • Integrate techniques drawn from fields as diverse as linguistics and artificial intelligence


This book will help you gain practical skills in natural language processing using the Python programming language and the Natural Language Toolkit (NLTK) open source library. If you're interested in developing web applications, analyzing multilingual news sources, or documenting endangered languages -- or if you're simply curious to have a programmer's perspective on how human language works -- you'll find Natural Language Processing with Python both fascinating and immensely useful.

Édition : O'Reilly - 512 pages, 1re édition, 7 juillet 2009

ISBN10 : 0596516495 - ISBN13 : 9780596516499

Commandez sur www.amazon.fr :

34.47 € TTC (prix éditeur 36.06 € TTC)
  • Chapter 1. Language Processing and Python
  • Chapter 2. Accessing Text Corpora and Lexical Resources
  • Chapter 3. Processing Raw Text
  • Chapter 4. Writing Structured Programs
  • Chapter 5. Categorizing and Tagging Words
  • Chapter 6. Learning to Classify Text
  • Chapter 7. Extracting Information from Text
  • Chapter 8. Analyzing Sentence Structure
  • Chapter 9. Building Feature-Based Grammars
  • Chapter 10. Analyzing the Meaning of Sentences
  • Chapter 11. Managing Linguistic Data
Critique du livre par la rédaction Franck Dernoncourt le 1er février 2012
Utilisé par plus d'une centaine de cours dans le monde et disponible gratuitement en ligne à l'adresse http://www.nltk.org/book (licence CC BY-NC-ND), ce livre offre une excellente introduction au traitement automatique des langues naturelles en expliquant les théories par des exemples concrets d'implémentation. Il se veut donc une introduction pratique au domaine, par opposition à une introduction purement théorique. Chaque chapitre du livre se termine par une série d'exercices classés par ordre de difficulté, mais malheureusement non corrigés.

La particularité principale du livre est qu'il présente de nombreux exemples de code, en se basant sur la bibliothèque open-source et gratuite NLTK (http://www.nltk.org) écrite en Python par notamment les auteurs de ce livre. Très bien documentée, la bibliothèque NLTK offre de nombreuses fonctionnalités de traitement des langues (analyse lexicale, étiquetage grammatical, analyse syntaxique, etc.) tout en interfaçant aussi bien des bases de données tel WordNet que des bibliothèques et logiciels tiers tels l'étiqueteur grammatical Stanford Tagger et le prouveur automatisé Prover9. Un grand nombre de corpus est également disponible via NLTK, ce qui est très appréciable pour mettre en œuvre des processus d'entraînement ainsi que pour réaliser des tests, notamment des tests de performance. Comme le livre présente les nombreuses facettes du traitement automatique des langues naturelles, il parcourt au travers de ses exemples une grande partie des fonctionnalités de NLTK.

La limite principale de la bibliothèque NLTK est les performances de Python en termes de vitesse de calcul. L'utilisation de Python permet toutefois au lecteur de ne pas être trop gêné par la barrière du langage, Python étant à ce jour sans conteste un des langages les plus simples d'accès. Pour ceux n'ayant aucune ou peu d'expérience en Python, certaines sections du livre sont dédiées uniquement à l'explication du langage Python, ce qui permet de rendre l'ouvrage accessible à tout public.

Néanmoins, bien que donnant un aperçu excellent et concret de l'ensemble du traitement automatique des langues naturelles, le focus du livre sur les exemples en Python fait que mécaniquement le livre consacre moins de place aux considérations théoriques. En ce sens, il est un complément idéal au livre de référence Speech and Language Processing (écrit par Daniel Jurafsky et James H. Martin) dont l'approche est beaucoup plus théorique.
Critique du livre par la rédaction Julien Plu le 1er mai 2012
Ce livre sur NLTK est réellement bien écrit, il n'est pas nécessaire d'avoir une expérience en traitement automatique du langage pour pouvoir aborder cet ouvrage, il vous apprendra tout ce dont vous avez besoin pour comprendre chaque chapitre. La seule obligation est d'avoir une connaissance du langage Python.
Les exemples sont non seulement simples, mais aussi très utiles, car ce sont des choses dont on pourrait avoir besoin dans une application. J'ai principalement aimé les chapitres sur les extractions d'entités nommées, l'apprentissage pour la création d'un classifieur et l'analyse du sens d'une phrase qui sont particulièrement bien faits et expliqués.
La seule remarque que je ferais est le manque de détails sur toutes les possibilités de création et d'utilisation d'une grammaire via les expressions régulières NLTK ou non.




 Commenter Signaler un problème

Avatar de Djug Djug - Expert éminent sénior https://www.developpez.com
le 06/02/2012 à 8:11
Bonjour,

La rédaction de DVP a lu pour vous l'ouvrage suivant: Natural Language Processing with Python, de Steven Bird, Ewan Klein, et Edward Loper.

Citation Envoyé par Résumé de l'éditeur
This book offers a highly accessible introduction to natural language processing, the field that supports a variety of language technologies, from predictive text and email filtering to automatic summarization and translation. With it, you'll learn how to write Python programs that work with large collections of unstructured text. You'll access richly annotated datasets using a comprehensive range of linguistic data structures, and you'll understand the main algorithms for analyzing the content and structure of written communication.

Packed with examples and exercises, Natural Language Processing with Python will help you:
  • Extract information from unstructured text, either to guess the topic or identify "named entities"
  • Analyze linguistic structure in text, including parsing and semantic analysis
  • Access popular linguistic databases, including WordNet and treebanks
  • Integrate techniques drawn from fields as diverse as linguistics and artificial intelligence


This book will help you gain practical skills in natural language processing using the Python programming language and the Natural Language Toolkit (NLTK) open source library. If you're interested in developing web applications, analyzing multilingual news sources, or documenting endangered languages -- or if you're simply curious to have a programmer's perspective on how human language works -- you'll find Natural Language Processing with Python both fascinating and immensely useful.
L'avez-vous lu? Comptez-vous le lire bientôt?

Quel est votre avis?

Exprimez-vous!! Votre avis nous intéresse.
Avatar de Franck Dernoncourt Franck Dernoncourt - Membre émérite https://www.developpez.com
le 06/02/2012 à 9:00
Voici une liste de définitions que j'ai trouvé intéressantes dans ce livre (les pages indiquées sont sous format n° de page du livre / n° de page de mon PDF) :

  • hypernym/hyponym relation, i.e., the relation between superordinate and subordinate concepts (p69 / 90)
  • Another rimportant way to navigate the WordNet network is from items to their components (meronyms) or to the things they are contained in (holonyms) (p710 / 91)
  • the same dictionary word (or lemma) (p104 / 125)
  • strip off any affixes, a task known as stemming. (p107 / 128)
  • Tokenization is the task of cutting a string into identifiable linguistic units that constitute a piece of language data (p109 / 130)
  • Tokenization is an instance of a more general problem of segmentation. (p112 § 133)
  • The %s and %d symbols are called conversion specifiers (p118 / 139)
  • The process of classifying words into their parts-of-speech and labeling them accord-ingly is known as part-of-speech tagging, POS tagging, or simply tagging. Parts-of-speech are also known as word classes or lexical categories. The collection of tagsused for a particular task is known as a tagset. Our emphasis in this chapter is onexploiting tags, and tagging text automatically. (p179 / 200)
  • As n gets larger, the specificity of the contexts increases, as does the chance that the data we wish to tag contains contexts that were not present in the training data. This is known as the sparse data problem, and is quite pervasive in NLP. As a consequence, there is a trade-off between the accuracy and the coverage of our results (and this is related to the precision/recall trade-off in information retrieval) (p205 / 226)
  • A convenient way to look at tagging errors is the confusion matrix. It charts expected tags (the gold standard) against actual tags gen-erated by a tagger (p207 / 228)
  • All languages acquire new lexical items. A list of words recently added to the Oxford Dictionary of English includes cyberslacker, fatoush, blamestorm, SARS, cantopop,bupkis, noughties, muggle, and robata. Notice that all these new words are nouns, and this is reflected in calling nouns an open class. By contrast, prepositions are regarded as a closed class. That is, there is a limited set of words belonging to the class. (p211 / 232)
  • Common tagsets often capture some morphosyntactic information, that is, informa-tion about the kind of morphological markings that words receive by virtue of theirsyntactic role. (p212 / 233)
  • Classification is the task of choosing the correct class label for a given input. (p221 / 242)
  • The first step in creating a classifier is deciding what features of the input are relevant,and how to encode those features. For this example, we’ll start by just looking at thefinal letter of a given name. The following feature extractor function builds a dictionary containing relevant information about a given name. (p223 / 244)
  • Recognizing the dialogue acts underlying the utterances in a dialogue can be an important first step in understanding the conversation. The NPS Chat Corpus, which was demonstrated in Section 2.1, consists of over 10,000 posts from instant messaging sessions. These posts have all been labeled with one of 15 dialogue act types, such as “Statement,” “Emotion,” “y/n Question,” and “Continuer.” (p235 / 256)
  • Recognizing textual entailment (RTE) is the task of determining whether a given piece of text T entails another text called the “hypothesis”. (p235 / 256)
  • A confusion matrix is a table where each cell [i,j] indicates how often label j was pre-dicted when the correct label was i. (p240 / 261)
  • Numeric features can be converted to binary features by binning, which replaces them with features such as “4<x<6.” (p249 / 270)
  • Named entities are definite noun phrases that refer to specific types of individuals, such as organizations, persons, dates, and so on. The goal of a named entity recognition (NER) system is to identify all textual men-tions of the named entities. This can be broken down into two subtasks: identifyingthe boundaries of the NE, and identifying its type. (p281 / 302)
  • Since our grammar licenses two trees for this sentence, the sentence is said to be structurally ambiguous. The ambiguity in question is called a prepositional phrase attachment ambiguity. (p299 / 320)
  • A grammar is said to be recursive if a category occurring on the left hand side of a production also appears on the righthand side of a production. (p301 / 322)
  • A parser processes input sentences according to the productions of a grammar, and builds one or more constituent structures that conform to the grammar. A grammar is a declarative specification of well-formedness—it is actually just a string, not a program. A parser is a procedural interpretation of the grammar. It searches through the space of trees licensed by a grammar to find one that has the required sentence alongits fringe. (p302 / 323)
  • Phrase structure grammar is concerned with how words and sequences of words combine to form constituents. A distinct and complementary approach, dependency grammar, focuses instead on how words relate to other words. (p310 / 331)
  • A dependency graph is projective if, when all the words are written in linear order, the edges can be drawn above the words without crossing. (p311 / 332)
  • In the tradition of dependency grammar, the verbs in Table 8-3 (whose dependents have Adj, NP, S and PP, which are often called complements of the respective verbs, are different) are said to have different valencies. (p313 / 335)
  • This ambiguity is unavoidable, and leads to horrendous inefficiency in parsing seemingly innocuous sentences. The solution to these problems is provided by probabilistic parsing, which allows us to rank the parses of an ambiguous sentence on the basis of evidence from corpora. (p318 / 339)
  • A probabilistic context-free grammar (or PCFG) is a context-free grammar that as-sociates a probability with each of its productions. It generates the same set of parses for a text that the corresponding context-free grammar does, and assigns a probability to each parse. The probability of a parse generated by a PCFG is simply the product ofthe probabilities of the productions used to generate it. (p320 / 341)
  • We can see that morphological properties of the verb co-vary with syntactic properties of the subject noun phrase. This co-variance is called agreement. (p329 / 350)
  • A feature path is a sequence of arcs that can be followed from the root node (p339 / 360)
  • A more general feature structure subsumes a less general one. (p341 / 362)
  • Merging information from two feature structures is called unification. (p342 / 363)
  • The two sentences in (5) can be both true, whereas those in (6) and (7) cannot be. In other words, the sentences in (5) are consistent, whereas those in (6) and (7) are inconsistent. (p365 / 386)
  • A model for a set W of sentences is a formal representation of a situation in which allthe sentences in W are true. (p367 / 388)
  • An argument is valid if there is no possible situation in which its premises are all true and its conclusion is not true. (p369 / 390)
  • In the sentences "Cyril is tall. He likes maths.", we say that he is coreferential with the noun phrase Cyril. (p373 / 394)
  • In the sentence "Angus had a dog but he disappeared.", "he" is bound by the indefinite NP "a dog", and this is a different relationship than coreference. If we replace the pronoun he by a dog, the result "Angus had a dog but a dog disappeared" is not semantically equivalent to the original sentence "Angus had a dog but he disappeared." (p374 / 395)
  • In general, an occurrence of a variable x in a formula F is free in F if that occurrence doesn’t fall within the scope of all x or some x in F. Conversely, if x is free in formula F, then it is bound in all x.F and exists x.F. If all variable occurrences in a formulaare bound, the formula is said to be closed. (p375 / 396)
  • The general process of determining truth or falsity of a formula in a model is called model checking. (p379 / 400)
  • Principle of Compositionality: the meaning of a whole is a function of the meaningsof the parts and of the way they are syntactically combined. (p385 / 406)
  • ? is a binding operator, just as the first-order logic quantifiers are. (p387 / 408)
  • A discourse representation structure (DRS) presents the meaning of discourse in terms of a list of discourse referents and a list of conditions.The discourse referents are the things under discussion in the discourse, and they correspond to the individual variables of first-order logic. The DRS conditions apply to those discourse referents, and correspond to atomic open formulas of first-orderlogic. (p397 / 418)
  • Inline annotation modifies the original document by inserting special symbols or control sequences that carry the annotated information. For example, when part-of-speech tagging a document, the string "fly" might be replacedwith the string "fly/NN", to indicate that the word fly is a noun in this context. Incontrast, standoff annotation does not modify the original document, but instead creates a new file that adds annotation information using pointers that reference the original document. For example, this new document might contain the string "<token id=8pos='NN'/>", to indicate that token 8 is a noun. (p421 / 442)
Un autre dictionnaire de NLP disponible online : http://www.cse.unsw.edu.au/~billw/nlpdict.html
Avatar de Franck Dernoncourt Franck Dernoncourt - Membre émérite https://www.developpez.com
le 06/02/2012 à 20:23
Également, pour ceux intéressés par le sujet, Stanford lance un cours d'introduction au traitement automatique des langues naturelles : http://www.nlp-class.org/