Livres en anglais

10 livres et 11 critiques, dernière mise à jour le 9 août 2020 , note moyenne : 4.4

  1. Handbook of Machine Learning - Volume 2: Optimization and Decision Making
  2. Handbook of Machine Learning - Volume 1: Foundation of Artificial Intelligence
  3. Fundamentals of Data Visualization - A Primer on Making Informative and Compelling Figures
  4. Practical Tableau - 100 Tips, Tutorials, and Strategies from a Tableau Zen Master
  5. Data Science from Scratch - First Principles with Python
  6. Generative Deep Learning - Teaching Machines to Paint, Write, Compose, and Play
  7. Practical Time Series Analysis - Prediction With Statistics and Machine Learning
  8. Hands-On Unsupervised Learning Using Python - How to Build Applied Machine Learning Solutions from Unlabeled Data
  9. Machine Learning for Data Streams - With Practical Examples in MOA
  10. Natural Language Processing with Python
couverture du livre Handbook of Machine Learning

Note 3 drapeau
Détails du livre
Sommaire
Critiques (1)
0 commentaire
 
 

Handbook of Machine Learning

Volume 2: Optimization and Decision Making

de
Public visé : Intermédiaire

Résumé de l'éditeur

Building on Handbook of Machine Learning - Volume 1: Foundation of Artificial Intelligence, this volume on Optimization and Decision Making covers a range of algorithms and their applications. Like the first volume, it provides a starting point for machine learning enthusiasts as a comprehensive guide on classical optimization methods. It also provides an in-depth overview on how artificial intelligence can be used to define, disprove or validate economic modeling and decision making concepts.

Édition : WorldScientific - 320 pages , 1re édition, 21 décembre 2019

ISBN10 : 9811205663 - ISBN13 : 9789811205668

Commandez sur www.amazon.fr :

113.70 € TTC (prix éditeur 113.70 € TTC)
Introduction
Classical Optimization
Genetic Algorithm
Particle Swarm Optimization
Simulated Annealing
Response Surface Method
Ant Colony Optimization
Bat and Firefly Algorithms
Artificial Immune System
Invasive Weed Optimization and Cuckoo Search Algorithms
Decision Trees and Random Forests
Hybrid Methods
Economic Modeling
Condition Monitoring
Rational Decision-Making
Conclusion Remarks
Critique du livre par la rédaction Thibaut Cuvelier le 9 août 2020
La science des données s'axe souvent sur la compréhension de données, mais ignore trop souvent la prise de décision : comment mettre en pratique les résultats d'un modèle d'apprentissage ? Comme le premier volume, les auteurs proposent une série d'études de cas rassemblés par technique, en exploitant les techniques du premier volume. On voit ainsi une série d'exemple où ces techniques sont appliquées et les résultats auxquels on peut arriver.

Cet ouvrage traite d'un grand nombre d'algorithmes d'optimisation : les algorithmes classiques d'optimisation continue, mais aussi toute la panoplie actuelle des métaheuristiques. En particulier, aucune méthode exacte n'est présentée pour les problèmes non convexes (alors qu'elles existent depuis belle lurette et sont efficaces pour un très grand nombre de cas pratiques). Ces techniques sont expliquées de manière très concise, mais claire.

Tout comme le premier volume, l'une des principales contributions de ce livre est, sans conteste, la quantité de références incluses, tant pour les algorithmes que leurs applications (qui représentent l'essentiel des références). Toutefois, les auteurs sont très convaincus par les métaheuristiques, au point d'en énoncé des contre-vérités : aucun de ces algorithmes ne peut trouver, à coup sûr, de solution globalement optimale.




 Poster une réponse Signaler un problème

Avatar de dourouc05 dourouc05 - Responsable Qt & Livres https://www.developpez.com
le 08/08/2020 à 1:40
Handbook of Machine Learning
Volume 2: Optimization and Decision Making
Building on Handbook of Machine Learning - Volume 1: Foundation of Artificial Intelligence, this volume on Optimization and Decision Making covers a range of algorithms and their applications. Like the first volume, it provides a starting point for machine learning enthusiasts as a comprehensive guide on classical optimization methods. It also provides an in-depth overview on how artificial intelligence can be used to define, disprove or validate economic modeling and decision making concepts.

[Lire la suite]




 
couverture du livre Handbook of Machine Learning

Note 4 drapeau
Détails du livre
Sommaire
Critiques (1)
0 commentaire
 
 

Handbook of Machine Learning

Volume 1: Foundation of Artificial Intelligence

de
Public visé : Intermédiaire

Résumé de l'éditeur

This is a comprehensive book on the theories of artificial intelligence with an emphasis on their applications. It combines fuzzy logic and neural networks, as well as hidden Markov models and genetic algorithm, describes advancements and applications of these machine learning techniques and describes the problem of causality. This book should serves as a useful reference for practitioners in artificial intelligence.

Édition : WorldScientific - 328 pages , 1re édition, 22 octobre 2018

ISBN10 : 9813271221 - ISBN13 : 9789813271227

Commandez sur www.amazon.fr :

128.01 € TTC (prix éditeur 128.01 € TTC)
Introduction
Multi-layer Perceptron
Radial Basis Function
Automatic Relevance Determination
Bayesian Networks
Support Vector Machines
Fuzzy Logic
Rough Sets
Hybrid Machines
Auto-associative Networks
Evolving Networks
Causality
Gaussian Mixture Models
Hidden Markov Models
Reinforcement Learning
Conclusion Remarks
Critique du livre par la rédaction Thibaut Cuvelier le 7 août 2020
L'intelligence artificielle est la tarte à la crème du jour, avec moult livres (entre autres supports) qui traitent du sujet, de manière plus ou moins appropriée. Ce livre prend un point de vue assez différent de la majorité : il ne se focalise pas sur les algorithmes possibles ou sur des bibliothèques qui les implémentent, mais bien sur les applications de ces techniques (académiques, pour l'écrasante majorité). Quand beaucoup de ressources sur le sujet se focalisent sur la manière d'arriver à un objectif donné, l'auteur présente des résultats auxquels on peut arriver, en pratique.

La variété de domaines abordés impressionne, on a vraiment une vue d'ensemble de toute une série de techniques d'intelligence artificielle. Ce panorama n'est pas complet, bien sûr (on ne voit presque pas d'utilisation des arbres de décision, par exemple), mais il inclut des outils peu connus, comme ARD pour l'interprétabilité de réseaux neuronaux ; les statistiques bayésiennes sont bien représentées, y compris dans les réseaux neuronaux. Beaucoup de sens de l'expression « intelligence artificielle » sont décrits, y compris la logique floue et les techniques évolutionnaires. Toutefois, le chapitre sur les réseaux neuronaux est quelque peu décevant, il semble s'être arrêté avant les développements de ces dix dernières années (uniquement de petits réseaux). L'auteur inclut toujours les RBF, une technique tombée en désuétude (même si elle reste utile).

L'une des principales contributions de ce livre est, sans conteste, la quantité de références incluses, tant pour les algorithmes que leurs applications (qui représentent l'essentiel des références). Certaines références ne sont pas forcément très adaptées au contexte (articles de recherche opérationnelle pour de l'apprentissage, notamment) ; l'auteur de l'ouvrage se retrouve surreprésenté dans les citations.

L'ouvrage débute sur les chapeaux de roues : très clairement, le lecteur est censé avoir déjà une certaine expérience dans le domaine, sans quoi il sera directement perdu. On attend notamment de lui certaines connaissances en statistiques, en processus stochastiques et en traitement des données.

Les explications d'algorithmes sont toujours concises, aucune technique n'a droit à plus d'une dizaine de pages. Ce niveau de concision est parfois problématique pour des sujets plus techniques, comme l'inférence de causalité. Les applications sont elles aussi résumées, mais de manière moins sommaire : ces parties peuvent donner des idées pour nourrir sa pratique quotidienne de science des données.




 Poster une réponse Signaler un problème

Avatar de dourouc05 dourouc05 - Responsable Qt & Livres https://www.developpez.com
le 07/08/2020 à 1:51
Handbook of Machine Learning
Volume 1: Foundation of Artificial Intelligence
This is a comprehensive book on the theories of artificial intelligence with an emphasis on their applications. It combines fuzzy logic and neural networks, as well as hidden Markov models and genetic algorithm, describes advancements and applications of these machine learning techniques and describes the problem of causality. This book should serves as a useful reference for practitioners in artificial intelligence.

[Lire la suite]




 
couverture du livre Fundamentals of Data Visualization

Note 4.5 drapeau
Détails du livre
Sommaire
Critiques (1)
0 commentaire
 
 

Fundamentals of Data Visualization

A Primer on Making Informative and Compelling Figures

de
Public visé : Intermédiaire

Résumé de l'éditeur

Effective visualization is the best way to communicate information from the increasingly large and complex datasets in the natural and social sciences. But with the increasing power of visualization software today, scientists, engineers, and business analysts often have to navigate a bewildering array of visualization choices and options.

This practical book takes you through many commonly encountered visualization problems, and it provides guidelines on how to turn large datasets into clear and compelling figures. What visualization type is best for the story you want to tell? How do you make informative figures that are visually pleasing? Author Claus O. Wilke teaches you the elements most critical to successful data visualization.

Explore the basic concepts of color as a tool to highlight, distinguish, or represent a value
Understand the importance of redundant coding to ensure you provide key information in multiple ways
Use the book’s visualizations directory, a graphical guide to commonly used types of data visualizations
Get extensive examples of good and bad figures
Learn how to use figures in a document or report and how employ them effectively to tell a compelling story

Édition : O'Reilly - 300 pages , 1re édition, 23 avril 2019

ISBN10 : 1492031089 - ISBN13 : 9781492031079

Commandez sur www.amazon.fr :

43.19 € TTC (prix éditeur 43.19 € TTC)
Introduction
From Data to Visualization
Visualizing Data: Mapping Data onto Aesthetics
Coordinate Systems and Axes
Color Scales
Directory of Visualizations
Visualizing Amounts
Visualizing Distributions: Histograms and Density Plots
Visualizing Distributions: Empirical Cumulative Distribution Functions and Q-Q Plots
Visualizing Many Distributions at Once
Visualizing Proportions
Visualizing Nested Proportions
Visualizing Associations Among Two or More Quantitative Variables
Visualizing Time Series and Other Functions of an Independent Variable
Visualizing Trends
Visualizing Geospatial Data
Visualizing Uncertainty
Principles of Figure Design
The Principle of Proportional Ink
Handling Overlapping Points
Common Pitfalls of Color Use
Redundant Coding
Multipanel Figures
Titles, Captions, and Tables
Balance the Data and the Context
Use Larger Axis Labels
Avoid Line Drawings
Don’t Go 3D
Miscellaneous Topics
Understanding the Most Commonly Used Image File Formats
Choosing the Right Visualization Software
Telling a Story and Making a Point
Critique du livre par la rédaction Thibaut Cuvelier le 18 juillet 2020
La visualisation est souvent le parent pauvre de l'enseignement scientifique : les étudiants sont censés savoir quand une visualisation est bonne, les formations se limitent à leur montrer comment réaliser l'une ou l'autre figure avec un logiciel donné. Par la suite, devenus professionnels, ces mêmes étudiants n'auront bien souvent pas les moyens de corriger le tir si nécessaire, à moins de s'y investir fortement. Ce livre cherche à fournir tous les éléments pour réaliser des visualisations efficaces qui transmettent le message prévu. Ce faisant, il ne montre que très peu de mathématiques et aucun bout de code, il n'utilise pas trop de jargon, pour s'ouvrir à un large public.

L'ouvrage est divisé en deux parties principales. La première se focalise sur les types de graphiques que l'on peut créer, les situations dans lesquelles ils s'avèrent intéressants. La deuxième partie est plus précise : elle traite le choix des couleurs et la préparation d'un graphique adapté aux daltoniens, par exemple.

Chaque chapitre est fortement illustré avec de bons et moins bons exemples de graphiques. Surtout, à chaque fois, l'auteur indique clairement ce qu'il en pense (clairement mauvais, simplement laid), mais aussi ses raisons (utilisation hasardeuse des couleurs et tailles, adéquation au type de données à représenter, etc.) ; ensuite, il donne des indications pour améliorer ces graphiques. Ces exemples ne sont pas abstraits, ils pourraient très bien provenir de la pratique quotidienne. Sur ces points, le livre se distingue de certains de ses concurrents, moins appliqués.

L'auteur suppose un certain niveau de connaissance d'un logiciel pour créer des graphiques (ne fût-ce qu'un tableur comme Excel, même s'il le décourage), car il ne parle jamais d'un seul logiciel en particulier. C'est à l'utilisateur de transposer les conseils donnés dans sa pratique de tous les jours. Le vocabulaire utilisé fait souvent penser à Leland Wilkinson (Grammar of Graphics, dont les principes sont repris par des bibliothèques comme ggplot ou plotnine). Le code utilisé pour générer toutes les visualisations est disponible en ligne (avec ggplot2 en R).

En termes de qualité esthétique, le livre est imprimé sur un papier de bonne qualité et en couleur, ce qui le rend très agréable à tenir en main.




 Poster une réponse Signaler un problème

Avatar de dourouc05 dourouc05 - Responsable Qt & Livres https://www.developpez.com
le 18/07/2020 à 4:34
Fundamentals of Data Visualization
A Primer on Making Informative and Compelling Figures
Effective visualization is the best way to communicate information from the increasingly large and complex datasets in the natural and social sciences. But with the increasing power of visualization software today, scientists, engineers, and business analysts often have to navigate a bewildering array of visualization choices and options.

This practical book takes you through many commonly encountered visualization problems, and it provides guidelines on how to turn large datasets into clear and compelling figures. What visualization type is best for the story you want to tell? How do you make informative figures that are visually pleasing? Author Claus O. Wilke teaches you the elements most critical to successful data visualization.

Explore the basic concepts of color as a tool to highlight, distinguish, or represent a value
Understand the importance of redundant coding to ensure you provide key information in multiple ways
Use the book’s visualizations directory, a graphical guide to commonly used types of data visualizations
Get extensive examples of good and bad figures
Learn how to use figures in a document or report and how employ them effectively to tell a compelling story

[Lire la suite]




 
couverture du livre Practical Tableau

Note 5 drapeau
Détails du livre
Sommaire
Critiques (1)
0 commentaire
 
 

Practical Tableau

100 Tips, Tutorials, and Strategies from a Tableau Zen Master

de
Public visé : Intermédiaire

Résumé de l'éditeur

Whether you have some experience with Tableau software or are just getting started, this manual goes beyond the basics to help you build compelling, interactive data visualization applications. Author Ryan Sleeper, one of the world’s most qualified Tableau consultants, complements his web posts and instructional videos with this guide to give you a firm understanding of how to use Tableau to find valuable insights in data.

Over five sections, Sleeper—recognized as a Tableau Zen Master, Tableau Public Visualization of the Year author, and Tableau Iron Viz Champion—provides visualization tips, tutorials, and strategies to help you avoid the pitfalls and take your Tableau knowledge to the next level.

Practical Tableau sections include:

  • Fundamentals: get started with Tableau from the beginning
  • Chart types: use step-by-step tutorials to build a variety of charts in Tableau
  • Tips and tricks: learn innovative uses of parameters, color theory, how to make your Tableau workbooks run efficiently, and more
  • Framework: explore the INSIGHT framework, a proprietary process for building Tableau dashboards
  • Storytelling: learn tangible tactics for storytelling with data, including specific and actionable tips you can implement immediately

Édition : O'Reilly - 624 pages , 1re édition, 8 mai 2018

ISBN10 : 1491977310 - ISBN13 : 9781491977316

Commandez sur www.amazon.fr :

29.41 € TTC (prix éditeur 29.41 € TTC)
Fundamentals

How to Learn Tableau: My Top Five Tips
Tip #5: Follow the Community
Tip #4: Take a Training Class
Tip #3: Read Up
Tip #2: Practice
Tip #1: Tableau Public
Which Tableau Product Is Best for Me?
Tableau Desktop: Personal
Tableau Desktop: Professional
Tableau Reader
Tableau Public
Tableau Online
Tableau Server
An Introduction to Connecting to Data
Shaping Data for Use with Tableau
Getting a Lay of the Land
Tableau Terminology
View the Underlying Data
View the Number of Records
Dimension Versus Measure
What Is a Measure?
What Is a Dimension?
Discrete Versus Continuous
Five Ways to Make a Bar Chart/An Introduction to Aggregation
Five Ways to Create a Bar Chart in Tableau
An Introduction to Aggregation in Tableau
Line Graphs, Independent Axes, and Date Hierarchies
How to Make a Line Graph in Tableau
Independent Axes in Tableau
Date Hierarchies in Tableau
Marks Cards, Encoding, and Level of Detail
An Explanation of Level of Detail
An Introduction to Encoding
Label and Tooltip Marks Cards
An Introduction to Filters
Dimension Filters in Tableau
Measure Filters in Tableau
More Options with Filters
An Introduction to Calculated Fields
Why Use Calculated Fields?
More on Aggregating Calculated Fields
An Introduction to Table Calculations
An Introduction to Parameters
An Introduction to Sets
How to Create a Set in Tableau
Five Ways to Use Tableau Sets
An Introduction to Level of Detail Expressions
An Introduction to Dashboards and Distribution
An Introduction to Dashboards in Tableau
Distributing Tableau Dashboards

Chart Types

A Spreadsheet Is Not a Data Visualization
How to Make a Highlight Table
How to Make a Heat Map
How to Make a Dual-Axis Combination Chart
How to Make a Scatter Plot
How to Make a Tree Map
How to Make Sparklines
How to Make Small Multiples
How to Make Bullet Graphs
How to Make a Stacked Area Chart
How to Make a Histogram
How to Make a Box-and-Whisker Plot
How to Make a Symbol Map with Mapbox Integration
How to Make a Filled Map
How to Make a Dual-Axis Map
How to Map a Sequential Path
How to Map Anything in Tableau
How to Make Custom Polygon Maps
How to Make a Gantt Chart
How to Make a Waterfall Chart
How to Make Dual-Axis Slope Graphs
How to Make Donut Charts
How to Make Funnel Charts
Introducing Pace Charts in Tableau
How to Make a Pareto Chart
How to Make a Control Chart
How to Make Dynamic Dual-Axis Bump Charts
How to Make Dumbbell Charts
How and Why to Make Customizable Jitter Plots

Tips and Tricks

How to Create Icon-Based Navigation or Filters
How to Make a What-If Analysis Using Parameters
Three Ways to Add Alerts to Your Dashboards
Alert 1: Date Settings
Alert 2: Dynamic Labels
Alert 3: Heat Map Dashboard with Optional Tableau Server Email
How to Add Instructions or Methodology Using Custom Shape Palettes
Ten Tableau Data Visualization Tips I Learned from Google Analytics
Use a Maximum of 12 Dashboard Objects
Improve User Experience by Leveraging Dashboard Actions
Allow End Users to Change the Date Aggregation of Line Graphs
Keep Crosstab Widths to a Maximum of Ten Columns
Use a Vertical Navigation in the Left Column
Choose Five or Fewer Colors for Your Dashboards
Stick Mostly to Lines and Bars
Include Comparisons Such as Year Over Year
Bring Your Data Visualization to Life Using Segmentation
Include Alerts of Exceptional or Poor Performance
Three Alternative Approaches to Pie Charts in Tableau
Tableau Pie Chart Alternative #1: Bar Chart
Tableau Pie Chart Alternative #2: Stacked Bars or Areas
Tableau Pie Chart Alternative #3: My Recommended Approach
How to Create and Compare Segments
Five Design Tips for Enhancing Your Tableau Visualizations
Color
Typography
Layout
Usability
Details
Leveraging Color to Improve Your Data Visualization
The Color Wheel: Where It All Begins
The Psychology of Color
Using Custom Color Palettes in Tableau
Three Creative Ways to Use Dashboard Actions
A Primer on Tableau Dashboard Actions
Tableau Dashboard Action #1: Use Every Sheet as a Filter
Tableau Dashboard Action #2: Embed YouTube Videos in a Dashboard
Tableau Dashboard Action #3: Do a Google Search or Google Image Search from a Dashboard
How to Conditionally Format Individual Rows or Columns
How to Use Legends Per Measure
How to Conditionally Format in Tableau Like Excel
The Solution: A Calculated “Placeholder” Field
Five Tips for Creating Efficient Workbooks
Using Level of Detail Expressions to Create Benchmarks
Designing Device-Specific Dashboards
How to Make a Stoplight 100-Point Index
What Is a Stoplight Index?
Why Do I Have to Use the Fancy Approach You’re About to Share?
How to Set Up a 100-Point Index
Adding Color to a 100-Point Index Table
What If Outperforming the Comparison Is Bad?
The Case for One-Dimensional Unit Charts
How to Highlight a Dimension
Allow Users to Choose Measures and Dimensions
How to Dynamically Format Numbers
How to Change Date Aggregation Using Parameters
How to Equalize Year-Over-Year Dates
How to Filter Out Partial Time Periods
How to Compare Two Date Ranges on One Axis
How to Compare Unequal Date Ranges on One Axis
How to Make a Cluster Analysis
Five Tips for Making Your Tableau Public Viz Go Viral
Tip #1: Create “Remarkable” Content
Tip #2: Balance Data and Design
Tip #3: Leverage Search Engine Optimization (SEO)
Tip #4: Network
Tip #5: Use Reddit
Three Ways to Make Beautiful Bar Charts in Tableau
Approach #1: Use Formatting Available in Tableau
Approach #2: Use Axis Rulers to Add a Baseline
Approach #3: Add Caps to Bars
Three Ways to Make Lovely Line Graphs in Tableau
Approach #1: Use Formatting Available in Tableau
Approach #2: Maximize the Data-Ink Ratio
Approach #3: Leverage the Dual-Axis
Three Ways Psychological Schemas Can Improve Your Data Visualization
Schema #1: Spatial Context
Schema #2: Icons/Shapes/Symbols
Schema #3: Color

Framework

Introducing the INSIGHT Framework for Data Visualization
Identify the Business Question
Name KPIs
Shape the Data
Shaping Data for Use with Tableau
Joining and Aggregating Data
Laying Out Data for Specific Analyses
Shaping Data for the Iron Viz Example
Initial Concept
Gather Feedback
Hone Dashboard
Tell the Story

Storytelling

Introduction to Storytelling
A Data Visualization Competition—That’s Also an Analogy for the Data Visualization Process
Tip #1: Know Your Audience
Tip #2: Smooth the Excel Transition
Tip #3: Leverage Color
Tip #4: Keep It Simple
Tip #5: Use the Golden Ratio
Tip #6: Retell an Old Story
Tip #7: Don’t Neglect the Setup
Tip #8: Don’t Use Pie Charts
Tip #9: Provide Visual Context
Tip #10: Use Callout Numbers
Tip #11: Allow Discovery
Tip #12: Balance Data and Design
Tip #13: Eliminate Chartjunk (But Not Graphics)
Tip #14: Use Freeform Dashboard Design
Tip 15: Tell a Story
Critique du livre par la rédaction Thibaut Cuvelier le 29 mars 2020
À l'époque où les données sont reines, l'art des visualisations devient de plus en plus important, tant pour comprendre ces données que pour communiquer des faits significatifs. Ce livre se focalise sur ce deuxième axe, c'est-à-dire sur la création de graphiques efficaces et plaisants à l'œil. L'auteur donne aussi des conseils pour bien intégrer ces graphiques dans une narration contextualisée des données, notamment grâce à sa méthodologie INSIGHT (qui n'est en rien spécifique au logiciel Tableau). Le mot d'ordre principal est qu'un graphique se pense : on ne peut pas réaliser de bonnes visualisations en fonçant tête baissée.

Le livre commence par une présentation générale de l'outil Tableau (déjà quelque peu dépassée, l'édition Personal n'existant plus), des types principaux de graphiques disponibles et de la bonne manière de les utiliser (surtout pour les plus exotiques). L'ouvrage est composé de cent chapitres très courts et indépendants, chacun tient dans la durée d'une pause café. Il peut se lire de manière linéaire ou comme une référence : chaque chapitre est écrit comme un petit tutoriel précis, focalisé sur une fonctionnalité du logiciel. L'auteur offre régulièrement un retour personnel d'expérience ou inspiré de la manière dont d'autres ont conçu des visualisations efficaces. L'objectif est de montrer une bonne manière d'utiliser le logiciel, mais sûrement pas la seule. Vu que bon nombre d'utilisateurs viennent de l'environnement Excel, les différences avec Tableau sont régulièrement mises en avant, pour faciliter la prise en main.

Cependant, on peut regretter que le niveau monte très vite dans les premiers chapitres. Il vaut mieux avoir une petite expérience de Tableau pour profiter un maximum de l'ouvrage, sans quoi le vocabulaire spécifique (utilisé dès le début) pourrait être rebutant.

Les figures imprimées en couleur sont les bienvenues dans un livre sur la visualisation, bien qu'elles ne soient pas strictement nécessaires. On ne peut pas se plaindre de la quantité d'illustrations, même si certaines sont trop petites pour être lisibles sur papier.




 Poster une réponse Signaler un problème

Avatar de dourouc05 dourouc05 - Responsable Qt & Livres https://www.developpez.com
le 30/03/2020 à 0:43
Practical Tableau
100 Tips, Tutorials, and Strategies from a Tableau Zen Master
Whether you have some experience with Tableau software or are just getting started, this manual goes beyond the basics to help you build compelling, interactive data visualization applications. Author Ryan Sleeper, one of the world’s most qualified Tableau consultants, complements his web posts and instructional videos with this guide to give you a firm understanding of how to use Tableau to find valuable insights in data.

Over five sections, Sleeper—recognized as a Tableau Zen Master, Tableau Public Visualization of the Year author, and Tableau Iron Viz Champion—provides visualization tips, tutorials, and strategies to help you avoid the pitfalls and take your Tableau knowledge to the next level.

Practical Tableau sections include:

  • Fundamentals: get started with Tableau from the beginning
  • Chart types: use step-by-step tutorials to build a variety of charts in Tableau
  • Tips and tricks: learn innovative uses of parameters, color theory, how to make your Tableau workbooks run efficiently, and more
  • Framework: explore the INSIGHT framework, a proprietary process for building Tableau dashboards
  • Storytelling: learn tangible tactics for storytelling with data, including specific and actionable tips you can implement immediately


[Lire la suite]




 
couverture du livre Data Science from Scratch

Note 5 drapeau
Détails du livre
Sommaire
Critiques (1)
0 commentaire
 
 

Data Science from Scratch

First Principles with Python

de
Public visé : Débutant

Résumé de l'éditeur

To really learn data science, you should not only master the tools—data science libraries, frameworks, modules, and toolkits—but also understand the ideas and principles underlying them. Updated for Python 3.6, this second edition of Data Science from Scratch shows you how these tools and algorithms work by implementing them from scratch.

If you have an aptitude for mathematics and some programming skills, author Joel Grus will help you get comfortable with the math and statistics at the core of data science, and with the hacking skills you need to get started as a data scientist. Packed with new material on deep learning, statistics, and natural language processing, this updated book shows you how to find the gems in today’s messy glut of data.

Get a crash course in Python
Learn the basics of linear algebra, statistics, and probability—and how and when they’re used in data science
Collect, explore, clean, munge, and manipulate data
Dive into the fundamentals of machine learning
Implement models such as k-nearest neighbors, Naïve Bayes, linear and logistic regression, decision trees, neural networks, and clustering
Explore recommender systems, natural language processing, network analysis, MapReduce, and databases

Édition : O'Reilly - 406 pages , 2eédition, 16 mai 2019

ISBN10 : 1492041130 - ISBN13 : 9781492041139

Commandez sur www.amazon.fr :

40.74 € TTC (prix éditeur 40.74 € TTC)
Preface to the Second Edition
Preface to the First Edition
Introduction
A Crash Course in Python
Visualizing Data
Linear Algebra
Statistics
Probability
Hypothesis and Inference
Gradient Descent
Getting Data
Working with Data
Machine Learning
k-Nearest Neighbors
Naive Bayes
Simple Linear Regression
Multiple Regression
Logistic Regression
Decision Trees
Neural Networks
Deep Learning
Clustering
Natural Language Processing
Network Analysis
Recommender Systems
Databases and SQL
MapReduce
Data Ethics
Go Forth and Do Data Science
Critique du livre par la rédaction Thibaut Cuvelier le 4 mars 2020
La science des données est un domaine tellement à la mode qu'elle attire des gens de tout horizon… et des livres de qualité variable, tentant de répondre à la demande. La plupart des ouvrages creusent profondément la théorie et les mathématiques derrière chaque algorithme (pour l'utilisation des techniques, les auteurs renvoient à la documentation, s'ils prennent cette peine) ou brossent un tableau tellement rapide qu'on ne comprend pas ce qui se passe vraiment (par contre, l'API d'une bibliothèque très spécifique est expliquée en long et en large). Ce livre cherche une troisième voie, entre une compréhension des algorithmes et une approche pragmatique : la compréhension d'un algorithme vient en l'implémentant, pour bien en saisir les tenants et les aboutissants. Cette maxime est poussée jusque dans ses retranchements, l'un des derniers chapitres présentant brièvement l'utilisation de bases de données SQL… avec une implémentation très basique d'un tel système.

Pour s'ouvrir à un public aussi large que possible, les prérequis sont très limités : des compétences en programmation (un chapitre entier est dédié au langage Python, utilisé dans tout le livre) et une aversion limitée envers les mathématiques (tous les concepts nécessaires étant rapidement expliqués, en prenant surtout un point de vue algorithmique). De là, l'auteur présente tout un cycle de projet de science des données, depuis l'acquisition et le nettoyage des données jusqu'au déploiement d'un modèle d'apprentissage, avec des incursions du côté du partitionnement des données ou de l'analyse de graphes.

Même si les algorithmes sont implémentés de zéro, l'auteur n'oublie pas le lien avec la pratique : presque personne n'implémente lui-même des algorithmes classiques. Ainsi, on a droit à des liens vers scikit-learn ou d'autres bibliothèques Python, selon les cas. Les fonctions développées ont une interface assez proche de celles proposées par ces bibliothèques, mais la ressemblance est la plus frappante pour les réseaux neuronaux (l'interface étant très proche de la classe Sequential de Keras). La grande différence avec les bibliothèques courantes réside dans les structures de données : pour avoir un code aussi explicite et clair que possible, l'auteur utilise des structures de données très précises telles que des listes de tuples nommés ou des dictionnaires, là où en pratique il faut utiliser des matrices pour des raisons de performance.

Si l'essentiel du livre s'intéresse au côté algorithmique de la science des données, l'auteur met l'accent sur les statistiques et fait autant que possible des liens avec des approches plus formelles pour les raisonnements : une intuition sur les données que l'on peut acquérir à l'aide d'un algorithme n'a peut-être aucun sens statistique, auquel cas cette intuition ne vaut pas grand-chose. De même, l'interprétabilité des modèles est mise en avant.

Le code proposé est toujours propre et exploite les dernières possibilités de Python. Le style d'écriture est très informel, ce qui colle parfaitement bien au public visé. On peut cependant regretter le traitement de la visualisation, un sujet très important en science des données, mais assez rapidement brossé.

En peu de mots : le pari de l'auteur est bien tenu !




 Poster une réponse Signaler un problème

Avatar de dourouc05 dourouc05 - Responsable Qt & Livres https://www.developpez.com
le 03/03/2020 à 5:09
Data Science from Scratch
First Principles with Python
To really learn data science, you should not only master the tools—data science libraries, frameworks, modules, and toolkits—but also understand the ideas and principles underlying them. Updated for Python 3.6, this second edition of Data Science from Scratch shows you how these tools and algorithms work by implementing them from scratch.

If you have an aptitude for mathematics and some programming skills, author Joel Grus will help you get comfortable with the math and statistics at the core of data science, and with the hacking skills you need to get started as a data scientist. Packed with new material on deep learning, statistics, and natural language processing, this updated book shows you how to find the gems in today’s messy glut of data.

Get a crash course in Python
Learn the basics of linear algebra, statistics, and probability—and how and when they’re used in data science
Collect, explore, clean, munge, and manipulate data
Dive into the fundamentals of machine learning
Implement models such as k-nearest neighbors, Naïve Bayes, linear and logistic regression, decision trees, neural networks, and clustering
Explore recommender systems, natural language processing, network analysis, MapReduce, and databases

[Lire la suite]




 
couverture du livre Generative Deep Learning

Note 5 drapeau
Détails du livre
Sommaire
Critiques (1)
0 commentaire
 
 

Generative Deep Learning

Teaching Machines to Paint, Write, Compose, and Play

de
Public visé : Intermédiaire

Résumé de l'éditeur

Generative modeling is one of the hottest topics in AI. It's now possible to teach a machine to excel at human endeavors such as painting, writing, and composing music. With this practical book, machine-learning engineers and data scientists will discover how to re-create some of the most impressive examples of generative deep learning models, such as variational autoencoders, generative adversarial networks (GANs), encoder-decoder models, and world models.

Author David Foster demonstrates the inner workings of each technique, starting with the basics of deep learning before advancing to some of the most cutting-edge algorithms in the field. Through tips and tricks, you'll understand how to make your models learn more efficiently and become more creative.

Discover how variational autoencoders can change facial expressions in photos
Build practical GAN examples from scratch, including CycleGAN for style transfer and MuseGAN for music generation
Create recurrent generative models for text generation and learn how to improve the models using attention
Understand how generative models can help agents to accomplish tasks within a reinforcement learning setting
Explore the architecture of the Transformer (BERT, GPT-2) and image generation models such as ProGAN and StyleGAN

Édition : O'Reilly - 350 pages , 1re édition, 12 juillet 2019

ISBN10 : 1492041947 - ISBN13 : 9781492041948

Commandez sur www.amazon.fr :

46.18 € TTC (prix éditeur 46.18 € TTC)
Preface

Introduction to Generative Deep Learning

Generative Modeling
Deep Learning
Variational Autoencoders
Generative Adversarial Networks

Teaching Machines to Paint, Write, Compose, and Play

Paint
Write
Compose
Play
The Future of Generative Modeling
Conclusion
Critique du livre par la rédaction Thibaut Cuvelier le 4 mars 2020
L'apprentissage automatique a divers domaines d'application, l'un des plus étonnants est sans doute la génération de contenu : images, textes, sons, etc. Depuis quelques années, on voit de plus en plus de démonstrations bluffantes de transfert de style d'un peintre sur des photographies modernes, de rédaction automatisée de texte, etc. Ce livre se focalise sur les principes sous-jacents à ces techniques et sur leur mise en œuvre à l'aide de réseaux neuronaux.

L'auteur sépare assez clairement les chapitres en deux parties. La première aborde essentiellement la théorie, avec les architectures principales de réseaux neuronaux appliquées aux problèmes de génération de contenu. On y découvre quelques applications basiques, mais les plus intéressantes doivent attendre la seconde moitié. Là, les schémas de base sont déclinés pour atteindre les meilleurs résultats actuels sur des tâches de génération de contenu. Il n'y a pas d'objectif d'exhaustivité l'auteur a fait un choix raisonné de techniques variées, pour montrer un maximum d'outils généralisables à d'autres tâches. Il n'hésite par ailleurs pas à donner des références dans la littérature scientifique, abondante dans le domaine, pour approfondir le sujet.

Aucun chapitre ne reste abstrait, puisque chaque technique est implémentée en Python. Il ne manque aucun détail, tout est explicite et expliqué, l'auteur y prête une attention particulière : on y retrouve les architectures de réseaux neuronaux, mais aussi les algorithmes à employer pour arriver à produire le résultat attendu. Les architectures génériques ne sont présentées qu'une seule fois, après quoi leur utilisation est cachée derrière des classes de l'auteur. Par ailleurs, tout le code est disponible sur GitHub, pour faciliter sa réutilisation.

Les applications sont variées et ne sont pas limitées à une forme artificielle d'art. En effet, l'auteur détaille aussi la génération de réponses à des questions ou encore l'inclusion d'éléments génératifs dans des techniques d'apprentissage par renforcement. Les principes sont similaires, mais on n'attend pas à les voir employés dans ce contexte.

On peut aussi apprécier l'impression en couleurs du livre, qui permet aussi la coloration syntaxique du code. Ce petit plus est bien agréable. De plus, le style de l'auteur est attrayant, très peu académique : l'ouvrage se lit très facilement.




 Poster une réponse Signaler un problème

Avatar de dourouc05 dourouc05 - Responsable Qt & Livres https://www.developpez.com
le 03/03/2020 à 5:08
Generative Deep Learning
Teaching Machines to Paint, Write, Compose, and Play
Generative modeling is one of the hottest topics in AI. It's now possible to teach a machine to excel at human endeavors such as painting, writing, and composing music. With this practical book, machine-learning engineers and data scientists will discover how to re-create some of the most impressive examples of generative deep learning models, such as variational autoencoders, generative adversarial networks (GANs), encoder-decoder models, and world models.

Author David Foster demonstrates the inner workings of each technique, starting with the basics of deep learning before advancing to some of the most cutting-edge algorithms in the field. Through tips and tricks, you'll understand how to make your models learn more efficiently and become more creative.

Discover how variational autoencoders can change facial expressions in photos
Build practical GAN examples from scratch, including CycleGAN for style transfer and MuseGAN for music generation
Create recurrent generative models for text generation and learn how to improve the models using attention
Understand how generative models can help agents to accomplish tasks within a reinforcement learning setting
Explore the architecture of the Transformer (BERT, GPT-2) and image generation models such as ProGAN and StyleGAN

[Lire la suite]




 
couverture du livre Practical Time Series Analysis

Note 4.5 drapeau
Détails du livre
Sommaire
Critiques (1)
0 commentaire
 
 

Practical Time Series Analysis

Prediction With Statistics and Machine Learning

de
Public visé : Débutant

Résumé de l'éditeur

Time series data analysis is increasingly important due to the massive production of such data through the internet of things, the digitalization of healthcare, and the rise of smart cities. As continuous monitoring and data collection become more common, the need for competent time series analysis with both statistical and machine learning techniques will increase.

Covering innovations in time series data analysis and use cases from the real world, this practical guide will help you solve the most common data engineering and analysis challengesin time series, using both traditional statistical and modern machine learning techniques. Author Aileen Nielsen offers an accessible, well-rounded introduction to time series in both R and Python that will have data scientists, software engineers, and researchers up and running quickly.

You'll get the guidance you need to confidently:

Find and wrangle time series data
Undertake exploratory time series data analysis
Store temporal data
Simulate time series data
Generate and select features for a time series
Measure error
Forecast and classify time series with machine or deep learning
Evaluate accuracy and performance

Édition : O'Reilly - 400 pages , 1re édition, 1er novembre 2019

ISBN10 : 1492041653 - ISBN13 : 9781492041658

Commandez sur www.amazon.fr :

44.81 € TTC (prix éditeur 44.81 € TTC)
Preface
Time Series: An Overview and a Quick History
Finding and Wrangling Time Series Data
Exploratory Data Analysis for Time Series
Simulating Time Series Data
Storing Temporal Data
Statistical Models for Time Series
State Space Models for Time Series
Generating and Selecting Features for a Time Series
Machine Learning for Time Series
Deep Learning for Time Series
Measuring Error
Performance Considerations in Fitting and Serving Time Series Models
Healthcare Applications
Financial Applications
Time Series for Government
Time Series Packages
Forecasts About Forecasting
Critique du livre par la rédaction Thibaut Cuvelier le 18 février 2020
Les séries temporelles se présentent dans de plus en plus de situations, alors que, il y a peu, elles étaient étudiées presque uniquement dans un contexte financier. Ce livre cherche à présenter le champ des utilisations possibles de l'analyse des séries chronologiques dans divers domaines ; cependant, son auteure cherche l'exhaustivité dans les méthodes pour approcher les séries temporelles plutôt que dans leur application. Elle nous livre ici une véritable revue en règle des techniques d'analyse et de prédiction de séries chronologiques, tant les plus classiques et statistiques (ARIMA et famille) que les plus récentes (de l'apprentissage automatique jusqu'à l'apprentissage profond). De fait, les méthodes les plus simples sont parfois les plus appropriées.

Alors que la plupart des ouvrages sur le sujet requièrent de bonnes connaissances en statistiques de la part du lecteur, ce n'est pas le cas de celui-ci. Pour une plus grande ouverture, l'auteure ne suppose que des bases en programmation et en statistiques, mais c'est à peu près tout : tous les concepts nécessaires sont brièvement réexpliqués, au besoin. De fait, le parti pris est véritablement pratique. Ainsi, ceux qui souhaitent approfondir la théorie derrière certaines méthodes ne trouveront pas leur bonheur ici, les explications purement mathématiques étant réduites à leur plus simple expression ; par contre, on a droit à des explications sur les faiblesses potentielles des mécanismes d'acquisition de données et sur le nettoyage des données qui suit forcément leur récupération. Ce n'est pas pour autant un livre de recettes : l'auteure cherche toujours à détailler le pourquoi, bien plus que le comment (qui est l'apanage des documentations techniques). Il n'y a d'ailleurs que rarement un intérêt à coder soi-même des algorithmes classiques, ce point est clairement expliqué par l'auteure.

On peut néanmoins se demander pourquoi les codes sont disponibles alternativement en R et en Python : dans certaines situations, l'un des deux langages a un écosystème légèrement plus développé dans un domaine particulier, mais les justifications manquent le reste du temps. Les passages de l'un à l'autre langage sont rarement détaillés, alors qu'on aimerait parfois savoir s'il est vraiment important de s'investir dans un autre langage pour l'analyse de données. En particulier, l'auteure montre un certain nombre de visualisations, mais ne le fait qu'en R, jamais en Python…

Le livre est chargé en références, souvent vers des sites comme StackOverflow : les explications n'y sont souvent pas très détaillées (pas comme dans un article scientifique), mais raisonnablement faciles à comprendre. On pourrait juste regretter que les liens pointent plutôt vers des questions que vers des réponses. De même, les logiciels existants sont bien référencés. L'ouvrage apporte, par rapport à d'autres sources, des listes de logiciels et bibliothèques pas forcément parmi les plus connus, mais surtout parmi les plus utiles — en pratique.




 Poster une réponse Signaler un problème

Avatar de dourouc05 dourouc05 - Responsable Qt & Livres https://www.developpez.com
le 18/02/2020 à 21:55
Practical Time Series Analysis

Prediction With Statistics and Machine Learning

de Aileen Nielsen

Time series data analysis is increasingly important due to the massive production of such data through the internet of things, the digitalization of healthcare, and the rise of smart cities. As continuous monitoring and data collection become more common, the need for competent time series analysis with both statistical and machine learning techniques will increase.

Covering innovations in time series data analysis and use cases from the real world, this practical guide will help you solve the most common data engineering and analysis challengesin time series, using both traditional statistical and modern machine learning techniques. Author Aileen Nielsen offers an accessible, well-rounded introduction to time series in both R and Python that will have data scientists, software engineers, and researchers up and running quickly.

You'll get the guidance you need to confidently:

Find and wrangle time series data
Undertake exploratory time series data analysis
Store temporal data
Simulate time series data
Generate and select features for a time series
Measure error
Forecast and classify time series with machine or deep learning
Evaluate accuracy and performance
Voir les critiques

 
couverture du livre Hands-On Unsupervised Learning Using Python

Note 2.5 drapeau
Détails du livre
Sommaire
Critiques (1)
0 commentaire
 
 

Hands-On Unsupervised Learning Using Python

How to Build Applied Machine Learning Solutions from Unlabeled Data

de
Public visé : Débutant

Résumé de l'éditeur

Many industry experts consider unsupervised learning the next frontier in artificial intelligence, one that may hold the key to general artificial intelligence. Since the majority of the world's data is unlabeled, conventional supervised learning cannot be applied. Unsupervised learning, on the other hand, can be applied to unlabeled datasets to discover meaningful patterns buried deep in the data, patterns that may be near impossible for humans to uncover.

Author Ankur Patel shows you how to apply unsupervised learning using two simple, production-ready Python frameworks: Scikit-learn and TensorFlow using Keras. With code and hands-on examples, data scientists will identify difficult-to-find patterns in data and gain deeper business insight, detect anomalies, perform automatic feature engineering and selection, and generate synthetic datasets. All you need is programming and some machine learning experience to get started.

  • Compare the strengths and weaknesses of the different machine learning approaches: supervised, unsupervised, and reinforcement learning
  • Set up and manage machine learning projects end-to-end
  • Build an anomaly detection system to catch credit card fraud
  • Clusters users into distinct and homogeneous groups
  • Perform semisupervised learning
  • Develop movie recommender systems using restricted Boltzmann machines
  • Generate synthetic images using generative adversarial networks

Édition : O'Reilly - 400 pages , 1re édition, 18 mars 2019

ISBN10 : 1492035645 - ISBN13 : 9781492035640

Commandez sur www.amazon.fr :

43.01 € TTC (prix éditeur 43.01 € TTC)
Fundamentals of Unsupervised Learning

Unsupervised Learning in the Machine Learning Ecosystem
End-to-End Machine Learning Project

Unsupervised Learning Using Scikit-Learn

Dimensionality Reduction
Anomaly Detection
Clustering
Group Segmentation

Unsupervised Learning Using TensorFlow and Keras

Autoencoders
Hands-On Autoencoder
Semisupervised Learning

Deep Unsupervised Learning Using TensorFlow and Keras

Recommender Systems Using Restricted Boltzmann Machines
Feature Detection Using Deep Belief Networks
Generative Adversarial Networks
Time Series Clustering
Critique du livre par la rédaction Thibaut Cuvelier le 2 juillet 2019
Le titre de cet ouvrage promet une belle partie appliquée, c'est effectivement ce que l'on ressent à sa lecture : on ne compte plus les lignes de code pour bien montrer ce que l'auteur fait, notamment dans ses graphiques (le code les générant étant présent dans le livre in extenso). Tout le code est d'ailleurs écrit avec Python 3, en utilisant les dernières versions des bibliothèques, afin de rester utilisable aussi longtemps que possible. Ce côté appliqué est présent tout au long du livre, l'auteur cherche toujours à présenter une utilité aux algorithmes qu'il aborde, il ne se contente pas d'un inventaire à la Prévert, le lien avec les applications réalistes est toujours présent.

L'ouvrage est construit progressivement, avec des techniques de plus en plus avancées, en présentant d'abord brièvement les concepts théoriques (sans mathématiques, car tel n'est pas le but du livre), les algorithmes, puis en plongeant dans la pratique. Les approches sont bien souvent comparées sur un même exemple, afin d'en voir les avantages et inconvénients. Cependant, l'apprentissage non supervisé n'est vu que sous un seul angle : l'exploitation de données sans étiquettes dans l'objectif d'effectuer des prédictions, c'est-à-dire comme une approche entièrement supervisée. Ce faisant, tous les aspects d'analyse de données sont négligés : il aurait été agréable, par exemple, de voir une application de partitionnement de données pour comprendre ce qu'elles contiennent (comme déterminer, sans a priori, les différentes manières de participer à un jeu). Au contraire, dans les exemples de partitionnement, on sait d'avance le nombre de classes que l'on cherche.

Au niveau de la présentation, une grande quantité de code et parfois d'images est redondante. Dans les premiers exemples, qui montrent plusieurs algorithmes d'apprentissage supervisé, la validation croisée est présentée à chaque fois, au lieu de se focaliser sur les différences entre les algorithmes. Chaque chapitre commence par une bonne page d'importation de modules Python (y compris des modules qui ne sont pas utilisés dans ce chapitre !). Certaines parties présentent une grande quantité d'images disposées de telle sorte qu'elles prennent un maximum de place (six images de taille raisonnable présentées sur trois pages, alors qu'en les réduisant un peu on aurait pu tout faire tenir sur une seule face…). Par ailleurs, toutes les images sont en noir et blanc, mais ont été conçues en couleurs : il est souvent difficile de s'y retrouver, car l'information de couleur est très exploitée (notamment pour présenter plusieurs courbes : elles ont sûrement des couleurs très différentes, mais les niveaux de gris se ressemblent trop pour que l'on arrive à faire la distinction entre les courbes).

Le côté technique m'a vraiment déçu. Les algorithmes sont présentés très rapidement, leurs paramètres sont quelque peu vus comme des boîtes noires ou simplement ignorés : comment peut-on en comprendre l'impact sur la solution ? Le chapitre sur la détection d'anomalies n'est vu que comme une application de la réduction de dimensionnalité, on ne trouve aucune discussion des algorithmes spécifiquement prévus pour cette tâche (forêts d'isolation, SVM à une classe, etc.), ce qui est assez réducteur. On ne trouve aucune mention des plongements (comme word2vec pour la représentation de mots) dans la section sur les autoencodeurs, alors que c'en est une application très importante.

Le public ciblé semble n'avoir qu'une assez faible expérience en apprentissage automatique. Le livre sera surtout utile à ceux qui veulent une introduction rapide et pas trop poussée au domaine de l'apprentissage non supervisé, un survol du domaine en abordant toutes ses facettes principales. Ceux qui se demandent à quoi l'apprentissage non supervisé peut bien être utile seront servis, mais n'en verront pas toutes les possibilités.




 Poster une réponse Signaler un problème

Avatar de dourouc05 dourouc05 - Responsable Qt & Livres https://www.developpez.com
le 12/07/2019 à 19:00
Hands-On Unsupervised Learning Using Python



Many industry experts consider unsupervised learning the next frontier in artificial intelligence, one that may hold the key to general artificial intelligence. Since the majority of the world's data is unlabeled, conventional supervised learning cannot be applied. Unsupervised learning, on the other hand, can be applied to unlabeled datasets to discover meaningful patterns buried deep in the data, patterns that may be near impossible for humans to uncover.

Author Ankur Patel shows you how to apply unsupervised learning using two simple, production-ready Python frameworks: Scikit-learn and TensorFlow using Keras. With code and hands-on examples, data scientists will identify difficult-to-find patterns in data and gain deeper business insight, detect anomalies, perform automatic feature engineering and selection, and generate synthetic datasets. All you need is programming and some machine learning experience to get started.

  • Compare the strengths and weaknesses of the different machine learning approaches: supervised, unsupervised, and reinforcement learning
  • Set up and manage machine learning projects end-to-end
  • Build an anomaly detection system to catch credit card fraud
  • Clusters users into distinct and homogeneous groups
  • Perform semisupervised learning
  • Develop movie recommender systems using restricted Boltzmann machines
  • Generate synthetic images using generative adversarial networks

Voir les critiques.

 
couverture du livre Machine Learning for Data Streams

Note 4.5 drapeau
Détails du livre
Sommaire
Critiques (1)
1 commentaire
 
 

Machine Learning for Data Streams

With Practical Examples in MOA

de
Public visé : Expert

Résumé de l'éditeur

A hands-on approach to tasks and techniques in data stream mining and real-time analytics, with examples in MOA, a popular freely available open-source software framework.

Today many information sources—including sensor networks, financial markets, social networks, and healthcare monitoring—are so-called data streams, arriving sequentially and at high speed. Analysis must take place in real time, with partial data and without the capacity to store the entire data set. This book presents algorithms and techniques used in data stream mining and real-time analytics. Taking a hands-on approach, the book demonstrates the techniques using MOA (Massive Online Analysis), a popular, freely available open-source software framework, allowing readers to try out the techniques after reading the explanations.

The book first offers a brief introduction to the topic, covering big data mining, basic methodologies for mining data streams, and a simple example of MOA. More detailed discussions follow, with chapters on sketching techniques, change, classification, ensemble methods, regression, clustering, and frequent pattern mining. Most of these chapters include exercises, an MOA-based lab session, or both. Finally, the book discusses the MOA software, covering the MOA graphical user interface, the command line, use of its API, and the development of new methods within MOA. The book will be an essential reference for readers who want to use data stream mining as a tool, researchers in innovation or data stream mining, and programmers who want to create new algorithms for MOA.

Édition : MIT Press - 288 pages , 1re édition, 2 mars 2018

ISBN10 : 0262037793 - ISBN13 : 9780262037792

Commandez sur www.amazon.fr :

46.84 € TTC (prix éditeur 46.84 € TTC)
Introduction

Introduction
Big Data Stream Mining
Hands-on Introduction to MOA

Stream Mining

Streams and Sketches
Dealing with Change
Classification
Ensemble Methods
Regression
Clustering
Frequent Pattern Mining

The MOA Software

Introduction to MOA and Its Ecosystem
The Graphical User Interface
Using the Command Line
Using the API
Developing New Methods in MOA
Critique du livre par la rédaction Thibaut Cuvelier le 13 avril 2019
L'apprentissage automatique est un domaine aux multiples facettes. Ce livre dépoussière l'une d'entre elles qui n'est que trop peu explorée dans la littérature : l'étude des flux de données, où les algorithmes doivent effectuer des prédictions, mais surtout s'adapter en temps réel à des données disponibles au compte-gouttes (même si ce dernier peut avoir un très bon débit !). Les auteurs font la part belle aux spécificités de ce paradigme : les calculs doivent être effectués très rapidement, on n'a presque pas de temps disponible par échantillon, ni de mémoire d'ailleurs.

Structurellement, on retrouve trois parties bien distinctes :

  • une introduction très générale au domaine, qui montre néanmoins l'essentiel de MOA, un logiciel dédié aux tâches d'apprentissage dans les flux ;
  • une présentation plus détaillée des algorithmes applicables à des flux, que ce soit pour les résumer, pour en dériver des modèles de prédiction ou pour explorer les données. Cette partie devrait plaire aux étudiants, professionnels et chercheurs qui souhaitent se lancer dans le domaine, notamment avec ses nombreuses références (pour les détails de certains algorithmes moins intéressants ou trop avancés : on sent un vrai lien entre le livre et la recherche actuelle dans le domaine). Les algorithmes sont détaillés avec un certain niveau de formalisme mathématique, pour bien comprendre ce qu'ils font (et pourquoi ils garantissent une certaine approximation de la réalité) ;
  • finalement, un guide d'utilisation assez succinct de MOA, avec un bon nombre de captures d'écran du logiciel (imprimées en couleurs !), qui détaille les différents onglets de l'interface graphique (à l'aide de listes très descriptives, mais liées aux autres chapitres de l'ouvrage) et passe rapidement sur les interfaces en ligne de commande et de programmation (ces deux derniers chapitres sont brefs et doivent être complémentés par celui sur l'interface graphique, qui contient les éléments essentiels).


On peut néanmoins reprocher quelques références vers la suite du livre (la section 4.6.2 considère parfois le contenu de la 4.9.2 intégré, par exemple), mais aussi l'omniprésence de MOA : on a l'impression que les auteurs se sont focalisés sur les algorithmes disponibles dans cette boîte à outils, plutôt que de présenter les algorithmes les plus intéressants en général. Cette remarque est toutefois assez mineure, au vu de l'exhaustivité de MOA.

À noter : le livre est aussi disponible gratuitement au format HTML, les auteurs répondant aux commentaires qui leur sont laissés.




 Poster une réponse Signaler un problème

Avatar de Malick Malick - Community Manager https://www.developpez.com
le 22/04/2019 à 0:24
Bonjour chers membres du Club,

Je vous invite à lire la critique que Dourouc05 a faite pour vous au sujet du livre :

L'apprentissage automatique est un domaine aux multiples facettes. Ce livre dépoussière l'une d'entre elles qui n'est que trop peu explorée dans la littérature : l'étude des flux de données, où les algorithmes doivent effectuer des prédictions, mais surtout s'adapter en temps réel à des données disponibles au compte-gouttes (même si ce dernier peut avoir un très bon débit !).
Les auteurs font la part belle aux spécificités de ce paradigme : les calculs doivent être effectués très rapidement, on n'a presque pas de temps disponible par échantillon, ni de mémoire d'ailleurs..Lire la suite de la critique...

Bonne lecture

 
couverture du livre Natural Language Processing with Python

Note 5 drapeau
Détails du livre
Sommaire
Critiques (2)
7 commentaires
 
 

Natural Language Processing with Python

de
Public visé : Intermédiaire

Résumé de l'éditeur

This book offers a highly accessible introduction to natural language processing, the field that supports a variety of language technologies, from predictive text and email filtering to automatic summarization and translation. With it, you'll learn how to write Python programs that work with large collections of unstructured text. You'll access richly annotated datasets using a comprehensive range of linguistic data structures, and you'll understand the main algorithms for analyzing the content and structure of written communication.

Packed with examples and exercises, Natural Language Processing with Python will help you:
  • Extract information from unstructured text, either to guess the topic or identify "named entities"
  • Analyze linguistic structure in text, including parsing and semantic analysis
  • Access popular linguistic databases, including WordNet and treebanks
  • Integrate techniques drawn from fields as diverse as linguistics and artificial intelligence


This book will help you gain practical skills in natural language processing using the Python programming language and the Natural Language Toolkit (NLTK) open source library. If you're interested in developing web applications, analyzing multilingual news sources, or documenting endangered languages -- or if you're simply curious to have a programmer's perspective on how human language works -- you'll find Natural Language Processing with Python both fascinating and immensely useful.

Édition : O'Reilly - 512 pages , 1re édition, 7 juillet 2009

ISBN10 : 0596516495 - ISBN13 : 9780596516499

Commandez sur www.amazon.fr :

34.47 € TTC (prix éditeur 36.06 € TTC)
  • Chapter 1. Language Processing and Python
  • Chapter 2. Accessing Text Corpora and Lexical Resources
  • Chapter 3. Processing Raw Text
  • Chapter 4. Writing Structured Programs
  • Chapter 5. Categorizing and Tagging Words
  • Chapter 6. Learning to Classify Text
  • Chapter 7. Extracting Information from Text
  • Chapter 8. Analyzing Sentence Structure
  • Chapter 9. Building Feature-Based Grammars
  • Chapter 10. Analyzing the Meaning of Sentences
  • Chapter 11. Managing Linguistic Data
Critique du livre par la rédaction Franck Dernoncourt le 1er février 2012
Utilisé par plus d'une centaine de cours dans le monde et disponible gratuitement en ligne à l'adresse http://www.nltk.org/book (licence CC BY-NC-ND), ce livre offre une excellente introduction au traitement automatique des langues naturelles en expliquant les théories par des exemples concrets d'implémentation. Il se veut donc une introduction pratique au domaine, par opposition à une introduction purement théorique. Chaque chapitre du livre se termine par une série d'exercices classés par ordre de difficulté, mais malheureusement non corrigés.

La particularité principale du livre est qu'il présente de nombreux exemples de code, en se basant sur la bibliothèque open-source et gratuite NLTK (http://www.nltk.org) écrite en Python par notamment les auteurs de ce livre. Très bien documentée, la bibliothèque NLTK offre de nombreuses fonctionnalités de traitement des langues (analyse lexicale, étiquetage grammatical, analyse syntaxique, etc.) tout en interfaçant aussi bien des bases de données tel WordNet que des bibliothèques et logiciels tiers tels l'étiqueteur grammatical Stanford Tagger et le prouveur automatisé Prover9. Un grand nombre de corpus est également disponible via NLTK, ce qui est très appréciable pour mettre en œuvre des processus d'entraînement ainsi que pour réaliser des tests, notamment des tests de performance. Comme le livre présente les nombreuses facettes du traitement automatique des langues naturelles, il parcourt au travers de ses exemples une grande partie des fonctionnalités de NLTK.

La limite principale de la bibliothèque NLTK est les performances de Python en termes de vitesse de calcul. L'utilisation de Python permet toutefois au lecteur de ne pas être trop gêné par la barrière du langage, Python étant à ce jour sans conteste un des langages les plus simples d'accès. Pour ceux n'ayant aucune ou peu d'expérience en Python, certaines sections du livre sont dédiées uniquement à l'explication du langage Python, ce qui permet de rendre l'ouvrage accessible à tout public.

Néanmoins, bien que donnant un aperçu excellent et concret de l'ensemble du traitement automatique des langues naturelles, le focus du livre sur les exemples en Python fait que mécaniquement le livre consacre moins de place aux considérations théoriques. En ce sens, il est un complément idéal au livre de référence Speech and Language Processing (écrit par Daniel Jurafsky et James H. Martin) dont l'approche est beaucoup plus théorique.
Critique du livre par la rédaction Julien Plu le 1er mai 2012
Ce livre sur NLTK est réellement bien écrit, il n'est pas nécessaire d'avoir une expérience en traitement automatique du langage pour pouvoir aborder cet ouvrage, il vous apprendra tout ce dont vous avez besoin pour comprendre chaque chapitre. La seule obligation est d'avoir une connaissance du langage Python.
Les exemples sont non seulement simples, mais aussi très utiles, car ce sont des choses dont on pourrait avoir besoin dans une application. J'ai principalement aimé les chapitres sur les extractions d'entités nommées, l'apprentissage pour la création d'un classifieur et l'analyse du sens d'une phrase qui sont particulièrement bien faits et expliqués.
La seule remarque que je ferais est le manque de détails sur toutes les possibilités de création et d'utilisation d'une grammaire via les expressions régulières NLTK ou non.




 Poster une réponse Signaler un problème

Avatar de Djug Djug - Expert éminent sénior https://www.developpez.com
le 06/02/2012 à 8:11
Bonjour,

La rédaction de DVP a lu pour vous l'ouvrage suivant: Natural Language Processing with Python, de Steven Bird, Ewan Klein, et Edward Loper.



Citation Envoyé par Résumé de l'éditeur
This book offers a highly accessible introduction to natural language processing, the field that supports a variety of language technologies, from predictive text and email filtering to automatic summarization and translation. With it, you'll learn how to write Python programs that work with large collections of unstructured text. You'll access richly annotated datasets using a comprehensive range of linguistic data structures, and you'll understand the main algorithms for analyzing the content and structure of written communication.

Packed with examples and exercises, Natural Language Processing with Python will help you:
  • Extract information from unstructured text, either to guess the topic or identify "named entities"
  • Analyze linguistic structure in text, including parsing and semantic analysis
  • Access popular linguistic databases, including WordNet and treebanks
  • Integrate techniques drawn from fields as diverse as linguistics and artificial intelligence


This book will help you gain practical skills in natural language processing using the Python programming language and the Natural Language Toolkit (NLTK) open source library. If you're interested in developing web applications, analyzing multilingual news sources, or documenting endangered languages -- or if you're simply curious to have a programmer's perspective on how human language works -- you'll find Natural Language Processing with Python both fascinating and immensely useful.
L'avez-vous lu? Comptez-vous le lire bientôt?

Quel est votre avis?

Exprimez-vous!! Votre avis nous intéresse.
Avatar de Franck Dernoncourt Franck Dernoncourt - Membre émérite https://www.developpez.com
le 06/02/2012 à 9:00
Voici une liste de définitions que j'ai trouvé intéressantes dans ce livre (les pages indiquées sont sous format n° de page du livre / n° de page de mon PDF) :

  • hypernym/hyponym relation, i.e., the relation between superordinate and subordinate concepts (p69 / 90)
  • Another rimportant way to navigate the WordNet network is from items to their components (meronyms) or to the things they are contained in (holonyms) (p710 / 91)
  • the same dictionary word (or lemma) (p104 / 125)
  • strip off any affixes, a task known as stemming. (p107 / 128)
  • Tokenization is the task of cutting a string into identifiable linguistic units that constitute a piece of language data (p109 / 130)
  • Tokenization is an instance of a more general problem of segmentation. (p112 § 133)
  • The %s and %d symbols are called conversion specifiers (p118 / 139)
  • The process of classifying words into their parts-of-speech and labeling them accord-ingly is known as part-of-speech tagging, POS tagging, or simply tagging. Parts-of-speech are also known as word classes or lexical categories. The collection of tagsused for a particular task is known as a tagset. Our emphasis in this chapter is onexploiting tags, and tagging text automatically. (p179 / 200)
  • As n gets larger, the specificity of the contexts increases, as does the chance that the data we wish to tag contains contexts that were not present in the training data. This is known as the sparse data problem, and is quite pervasive in NLP. As a consequence, there is a trade-off between the accuracy and the coverage of our results (and this is related to the precision/recall trade-off in information retrieval) (p205 / 226)
  • A convenient way to look at tagging errors is the confusion matrix. It charts expected tags (the gold standard) against actual tags gen-erated by a tagger (p207 / 228)
  • All languages acquire new lexical items. A list of words recently added to the Oxford Dictionary of English includes cyberslacker, fatoush, blamestorm, SARS, cantopop,bupkis, noughties, muggle, and robata. Notice that all these new words are nouns, and this is reflected in calling nouns an open class. By contrast, prepositions are regarded as a closed class. That is, there is a limited set of words belonging to the class. (p211 / 232)
  • Common tagsets often capture some morphosyntactic information, that is, informa-tion about the kind of morphological markings that words receive by virtue of theirsyntactic role. (p212 / 233)
  • Classification is the task of choosing the correct class label for a given input. (p221 / 242)
  • The first step in creating a classifier is deciding what features of the input are relevant,and how to encode those features. For this example, we’ll start by just looking at thefinal letter of a given name. The following feature extractor function builds a dictionary containing relevant information about a given name. (p223 / 244)
  • Recognizing the dialogue acts underlying the utterances in a dialogue can be an important first step in understanding the conversation. The NPS Chat Corpus, which was demonstrated in Section 2.1, consists of over 10,000 posts from instant messaging sessions. These posts have all been labeled with one of 15 dialogue act types, such as “Statement,” “Emotion,” “y/n Question,” and “Continuer.” (p235 / 256)
  • Recognizing textual entailment (RTE) is the task of determining whether a given piece of text T entails another text called the “hypothesis”. (p235 / 256)
  • A confusion matrix is a table where each cell [i,j] indicates how often label j was pre-dicted when the correct label was i. (p240 / 261)
  • Numeric features can be converted to binary features by binning, which replaces them with features such as “4<x<6.” (p249 / 270)
  • Named entities are definite noun phrases that refer to specific types of individuals, such as organizations, persons, dates, and so on. The goal of a named entity recognition (NER) system is to identify all textual men-tions of the named entities. This can be broken down into two subtasks: identifyingthe boundaries of the NE, and identifying its type. (p281 / 302)
  • Since our grammar licenses two trees for this sentence, the sentence is said to be structurally ambiguous. The ambiguity in question is called a prepositional phrase attachment ambiguity. (p299 / 320)
  • A grammar is said to be recursive if a category occurring on the left hand side of a production also appears on the righthand side of a production. (p301 / 322)
  • A parser processes input sentences according to the productions of a grammar, and builds one or more constituent structures that conform to the grammar. A grammar is a declarative specification of well-formedness—it is actually just a string, not a program. A parser is a procedural interpretation of the grammar. It searches through the space of trees licensed by a grammar to find one that has the required sentence alongits fringe. (p302 / 323)
  • Phrase structure grammar is concerned with how words and sequences of words combine to form constituents. A distinct and complementary approach, dependency grammar, focuses instead on how words relate to other words. (p310 / 331)
  • A dependency graph is projective if, when all the words are written in linear order, the edges can be drawn above the words without crossing. (p311 / 332)
  • In the tradition of dependency grammar, the verbs in Table 8-3 (whose dependents have Adj, NP, S and PP, which are often called complements of the respective verbs, are different) are said to have different valencies. (p313 / 335)
  • This ambiguity is unavoidable, and leads to horrendous inefficiency in parsing seemingly innocuous sentences. The solution to these problems is provided by probabilistic parsing, which allows us to rank the parses of an ambiguous sentence on the basis of evidence from corpora. (p318 / 339)
  • A probabilistic context-free grammar (or PCFG) is a context-free grammar that as-sociates a probability with each of its productions. It generates the same set of parses for a text that the corresponding context-free grammar does, and assigns a probability to each parse. The probability of a parse generated by a PCFG is simply the product ofthe probabilities of the productions used to generate it. (p320 / 341)
  • We can see that morphological properties of the verb co-vary with syntactic properties of the subject noun phrase. This co-variance is called agreement. (p329 / 350)
  • A feature path is a sequence of arcs that can be followed from the root node (p339 / 360)
  • A more general feature structure subsumes a less general one. (p341 / 362)
  • Merging information from two feature structures is called unification. (p342 / 363)
  • The two sentences in (5) can be both true, whereas those in (6) and (7) cannot be. In other words, the sentences in (5) are consistent, whereas those in (6) and (7) are inconsistent. (p365 / 386)
  • A model for a set W of sentences is a formal representation of a situation in which allthe sentences in W are true. (p367 / 388)
  • An argument is valid if there is no possible situation in which its premises are all true and its conclusion is not true. (p369 / 390)
  • In the sentences "Cyril is tall. He likes maths.", we say that he is coreferential with the noun phrase Cyril. (p373 / 394)
  • In the sentence "Angus had a dog but he disappeared.", "he" is bound by the indefinite NP "a dog", and this is a different relationship than coreference. If we replace the pronoun he by a dog, the result "Angus had a dog but a dog disappeared" is not semantically equivalent to the original sentence "Angus had a dog but he disappeared." (p374 / 395)
  • In general, an occurrence of a variable x in a formula F is free in F if that occurrence doesn’t fall within the scope of all x or some x in F. Conversely, if x is free in formula F, then it is bound in all x.F and exists x.F. If all variable occurrences in a formulaare bound, the formula is said to be closed. (p375 / 396)
  • The general process of determining truth or falsity of a formula in a model is called model checking. (p379 / 400)
  • Principle of Compositionality: the meaning of a whole is a function of the meaningsof the parts and of the way they are syntactically combined. (p385 / 406)
  • ? is a binding operator, just as the first-order logic quantifiers are. (p387 / 408)
  • A discourse representation structure (DRS) presents the meaning of discourse in terms of a list of discourse referents and a list of conditions.The discourse referents are the things under discussion in the discourse, and they correspond to the individual variables of first-order logic. The DRS conditions apply to those discourse referents, and correspond to atomic open formulas of first-orderlogic. (p397 / 418)
  • Inline annotation modifies the original document by inserting special symbols or control sequences that carry the annotated information. For example, when part-of-speech tagging a document, the string "fly" might be replacedwith the string "fly/NN", to indicate that the word fly is a noun in this context. Incontrast, standoff annotation does not modify the original document, but instead creates a new file that adds annotation information using pointers that reference the original document. For example, this new document might contain the string "<token id=8pos='NN'/>", to indicate that token 8 is a noun. (p421 / 442)
Un autre dictionnaire de NLP disponible online : http://www.cse.unsw.edu.au/~billw/nlpdict.html
Avatar de Franck Dernoncourt Franck Dernoncourt - Membre émérite https://www.developpez.com
le 06/02/2012 à 20:23
Également, pour ceux intéressés par le sujet, Stanford lance un cours d'introduction au traitement automatique des langues naturelles : http://www.nlp-class.org/