دانلود کتاب Large Scale Machine Learning with Python – یادگیری ماشینی در مقیاس بزرگ با پایتون

دسته بندی :
اطلاعات کتاب
  • جلد
  • سری
  • ویرایش 1st ed
  • سال 2016
  • نویسنده (گان) Alberto Boschetti, Luca Massaron, Bastiaan Sjardin
  • ناشر Packt Publishing
  • زبان English
  • تعداد صفحات
  • حجم فایل 5.77MB
  • فرمت فایل epub
  • شابک 9781785888021, 1785888021
قیمت محصول :

45,000 تومان

با خرید این محصول، 2,250 تومان به کیف پول شما بازگشت داده می‌شود

روند خرید و دریافت کتاب‌ها بدون هیچ اختلالی انجام می‌شود.
تمامی فایل‌ها بر روی سرورهای داخلی میزبانی می‌شوند تا بتوانید به راحتی و در لحظه آن‌ها را دانلود کنید. در صورت بروز هرگونه مشکل یا نیاز به راهنمایی، لطفاً از طریق « صفحه تماس باما» با تیم پشتیبانی در ارتباط باشید.

تمامی کتاب های موجود در وبسایت سای وان به زبان انگلیسی میباشد

توضیحات

Cover — Copyright — Credits — About the Authors — About the Reviewers — www.PacktPub.com — Table of Contents — Preface — Chapter 1: First Steps to Scalability — Explaining scalability in detail — Making large scale examples — Introducing Python — Scale up with Python — Scale out with Python — Python for large scale machine learning — Choosing between Python 2 and Python 3 — Installing Python —

Achieving SVM at scale with SGD — Feature selection by regularization — Including non-linearity in SGD — Trying explicit high-dimensional mappings — Hyperparameter tuning — Other alternatives for SVM fast learning — Nonlinear and faster with Vowpal Wabbit — Installing VW — Understanding the VW data format — Python integration — A few examples using reductions for SVM and neural nets — Faster bike-sharing — The covertype dataset crunched by VW — Summary — Chapter 4: Neural Networks and Deep Learning — The neural network architecture — What and how neural networks learn — Choosing the right architecture — The input layer — The hidden layer — The output layer — Neural networks in action — Parallelization for sknn — Neural networks and regularization — Neural networks and hyperparameter optimization — Neural networks and decision boundaries — Deep learning at scale with H2O — Large scale deep learning with H2O — Gridsearch on H2O — Deep learning and unsupervised pretraining — Deep learning with theanets — Autoencoders and unsupervised learning — Autoencoders — Summary — Chapter 5: Deep Learning with TensorFlow — TensorFlow installation — TensorFlow operations — GPU computing — Linear regression with SGD — A neural network from scratch in TensorFlow — Machine learning on TensorFlow with SkFlow — Deep learning with large files – incremental learning — Keras and TensorFlow installation — Convolutional Neural Networks in TensorFlow through Keras — The convolution layer — The pooling layer — The fully connected layer — CNN’s with an incremental approach — GPU Computing — Summary — Chapter 6: Classification and Regression Trees at Scale — Bootstrap aggregation — Random forest and extremely randomized forest — Fast parameter optimization with randomized search — Extremely randomized trees and large datasets

CART and boosting — Gradient Boosting Machines — max_depth — learning_rate — Subsample — Faster GBM with warm_start — Training and storing GBM models — XGBoost — XGBoost regression — XGBoost and variable importance — XGBoost streaming large datasets — XGBoost model persistence — Out-of-core CART with H2O — Random forest and gridsearch on H2O — Stochastic gradient boosting and gridsearch on H2O — Summary — Chapter 7: Unsupervised Learning at Scale — Unsupervised methods — Feature decomposition – PCA — Randomized PCA — Incremental PCA — Sparse PCA — PCA with H2O — Clustering – K-means — Initialization methods — K-means assumptions — Selection of the best K — Scaling K-means – mini-batch — K-means with H2O — LDA — Scaling LDA – memory, CPUs, and machines — Summary — Chapter 8: Distributed Environments – Hadoop and Spark — From a standalone machine to a bunch of nodes — Why do we need a distributed framework? — Setting up the VM — VirtualBox — Vagrant — Using the VM — The Hadoop ecosystem — Architecture — HDFS — MapReduce — YARN — Spark — pySpark — Summary — Chapter 9: Practical Machine Learning with Spark — Setting up the VM for this chapter — Sharing variables across cluster nodes — Broadcast read-only variables — Accumulators write-only variables — Broadcast and accumulators together – an example — Data preprocessing in Spark — JSON files and Spark DataFrames — Dealing with missing data — Grouping and creating tables in-memory — Writing the preprocessed DataFrame or RDD to disk — Working with Spark DataFrames — Machine learning with Spark — Spark on the KDD99 dataset — Reading the dataset — Feature engineering — Training a learner — Evaluating a learner’s performance — The power of the ML pipeline — Manual tuning — Cross-validation — Final cleanup — Summary

Appendix: Introduction to GPUs and Theano — GPU computing — Theano – parallel computing on the GPU — Installing Theano — Index Read more…

Abstract: Cover — Copyright — Credits — About the Authors — About the Reviewers — www.PacktPub.com — Table of Contents — Preface — Chapter 1: First Steps to Scalability — Explaining scalability in detail — Making large scale examples — Introducing Python — Scale up with Python — Scale out with Python — Python for large scale machine learning — Choosing between Python 2 and Python 3 — Installing Python — Step-by-step installation — The installation of packages — Package upgrades — Scientific distributions — Introducing Jupyter/IPython — Python packages — NumPy — SciPy — Pandas — Scikit-learn — The matplotlib package — Gensim — H2O — XGBoost — Theano — TensorFlow — The sknn library — Theanets — Keras — Other useful packages to install on your system — Summary — Chapter 2: Scalable Learning in Scikit-learn — Out-of-core learning — Subsampling as a viable option — Optimizing one instance at a time — Building an out-of-core learning system — Streaming data from sources — Datasets to try the real thing yourself — The first example – streaming the bike-sharing dataset — Using pandas I/O tools — Working with databases — Paying attention to the ordering of instances — Stochastic learning — Batch gradient descent — Stochastic gradient descent — The Scikit-learn SGD implementation — Defining SGD learning parameters — Feature management with data streams — Describing the target — The hashing trick — Other basic transformations — Testing and validation in a stream — Trying SGD in action — Summary — Chapter 3: Fast SVM Implementations — Datasets to experiment with on your own — The bike-sharing dataset — The covertype dataset — Support Vector Machines — Hinge loss and its variants — Understanding the Scikit-learn SVM implementation — Pursuing nonlinear SVMs by subsampling

Achieving SVM at scale with SGD — Feature selection by regularization — Including non-linearity in SGD — Trying explicit high-dimensional mappings — Hyperparameter tuning — Other alternatives for SVM fast learning — Nonlinear and faster with Vowpal Wabbit — Installing VW — Understanding the VW data format — Python integration — A few examples using reductions for SVM and neural nets — Faster bike-sharing — The covertype dataset crunched by VW — Summary — Chapter 4: Neural Networks and Deep Learning — The neural network architecture — What and how neural networks learn — Choosing the right architecture — The input layer — The hidden layer — The output layer — Neural networks in action — Parallelization for sknn — Neural networks and regularization — Neural networks and hyperparameter optimization — Neural networks and decision boundaries — Deep learning at scale with H2O — Large scale deep learning with H2O — Gridsearch on H2O — Deep learning and unsupervised pretraining — Deep learning with theanets — Autoencoders and unsupervised learning — Autoencoders — Summary — Chapter 5: Deep Learning with TensorFlow — TensorFlow installation — TensorFlow operations — GPU computing — Linear regression with SGD — A neural network from scratch in TensorFlow — Machine learning on TensorFlow with SkFlow — Deep learning with large files – incremental learning — Keras and TensorFlow installation — Convolutional Neural Networks in TensorFlow through Keras — The convolution layer — The pooling layer — The fully connected layer — CNN’s with an incremental approach — GPU Computing — Summary — Chapter 6: Classification and Regression Trees at Scale — Bootstrap aggregation — Random forest and extremely randomized forest — Fast parameter optimization with randomized search — Extremely randomized trees and large datasets

CART and boosting — Gradient Boosting Machines — max_depth — learning_rate — Subsample — Faster GBM with warm_start — Training and storing GBM models — XGBoost — XGBoost regression — XGBoost and variable importance — XGBoost streaming large datasets — XGBoost model persistence — Out-of-core CART with H2O — Random forest and gridsearch on H2O — Stochastic gradient boosting and gridsearch on H2O — Summary — Chapter 7: Unsupervised Learning at Scale — Unsupervised methods — Feature decomposition – PCA — Randomized PCA — Incremental PCA — Sparse PCA — PCA with H2O — Clustering – K-means — Initialization methods — K-means assumptions — Selection of the best K — Scaling K-means – mini-batch — K-means with H2O — LDA — Scaling LDA – memory, CPUs, and machines — Summary — Chapter 8: Distributed Environments – Hadoop and Spark — From a standalone machine to a bunch of nodes — Why do we need a distributed framework? — Setting up the VM — VirtualBox — Vagrant — Using the VM — The Hadoop ecosystem — Architecture — HDFS — MapReduce — YARN — Spark — pySpark — Summary — Chapter 9: Practical Machine Learning with Spark — Setting up the VM for this chapter — Sharing variables across cluster nodes — Broadcast read-only variables — Accumulators write-only variables — Broadcast and accumulators together – an example — Data preprocessing in Spark — JSON files and Spark DataFrames — Dealing with missing data — Grouping and creating tables in-memory — Writing the preprocessed DataFrame or RDD to disk — Working with Spark DataFrames — Machine learning with Spark — Spark on the KDD99 dataset — Reading the dataset — Feature engineering — Training a learner — Evaluating a learner’s performance — The power of the ML pipeline — Manual tuning — Cross-validation — Final cleanup — Summary

Appendix: Introduction to GPUs and Theano — GPU computing — Theano – parallel computing on the GPU — Installing Theano — Index

————————————————————–

ترجمه ماشینی :

جلد — حق چاپ — اعتبار — درباره نویسندگان — درباره داوران — www.PacktPub.com — فهرست مطالب — پیشگفتار — فصل 1: گامهای اولیه برای مقیاس پذیری — توضیح مقیاس پذیری با جزئیات — ساخت مثال‌هایی در مقیاس بزرگ – معرفی پایتون – مقیاس‌سازی با پایتون – مقیاس‌سازی با پایتون – پایتون برای یادگیری ماشینی در مقیاس بزرگ – انتخاب بین پایتون 2 و پایتون 3 – نصب پایتون – سبک نصب گام به گام — نصب بسته ها — ارتقاء بسته — توزیع های علمی — معرفی Jupyter/IPython — بسته های Python — NumPy — SciPy — Pandas — Scikit -learn — بسته matplotlib — Gensim — H2O — XGBoost — Theano — TensorFlow — کتابخانه sknn — Theanets — Keras — سایر بسته های مفید برای نصب بر روی سیستم شما — خلاصه — فصل 2 : یادگیری مقیاس پذیر در Scikit-learn — یادگیری خارج از هسته — نمونه گیری فرعی به عنوان یک گزینه قابل اجرا — بهینه سازی یک نمونه در یک زمان — ساختن یک سیستم یادگیری خارج از هسته — جریان داده ها از منابع — مجموعه داده ها برای اینکه خودتان چیز واقعی را امتحان کنید — اولین مثال – پخش مجموعه داده اشتراک گذاری دوچرخه — استفاده از ابزارهای ورودی/خروجی پانداها — کار با پایگاه های داده — توجه به ترتیب نمونه ها — یادگیری تصادفی — نزول گرادیان دسته ای – – نزول گرادیان تصادفی – اجرای Scikit-learn SGD – تعریف پارامترهای یادگیری SGD – مدیریت ویژگی‌ها با جریان‌های داده – توصیف هدف – ترفند هش کردن – سایر تغییرات اساسی – آزمایش و اعتبارسنجی در یک جریان – آزمایش SGD در عمل — خلاصه — فصل 3: پیاده سازی سریع SVM — مجموعه داده هایی که می توانید با آنها آزمایش کنید — مجموعه داده های اشتراک گذاری دوچرخه — مجموعه داده های نوع پوشش — ماشین های بردار پشتیبانی — از دست دادن لولا و انواع آن — درک اجرای Scikit-learn SVM — پیگیری SVM های غیرخطی با نمونه گیری فرعی

دستیابی به SVM در مقیاس با SGD — انتخاب ویژگی با تنظیم — شامل غیر خطی بودن در SGD — تلاش برای نگاشت صریح با ابعاد بالا — تنظیم فراپارامتر – – جایگزین های دیگر برای یادگیری سریع SVM – غیرخطی و سریعتر با Vowpal Wabbit – نصب VW – درک فرمت داده VW – ادغام Python – چند مثال با استفاده از کاهش برای SVM و شبکه های عصبی – اشتراک گذاری سریع دوچرخه – مجموعه داده نوع پوششی که توسط VW خرد شده است — خلاصه — فصل 4: شبکه های عصبی و یادگیری عمیق — معماری شبکه عصبی — شبکه های عصبی چه چیزی و چگونه یاد می گیرند — انتخاب معماری مناسب — لایه ورودی — لایه پنهان — – لایه خروجی — شبکه های عصبی در حال عمل — موازی سازی برای sknn — شبکه های عصبی و منظم سازی — شبکه های عصبی و بهینه سازی هایپرپارامتر — شبکه های عصبی و مرزهای تصمیم — یادگیری عمیق در مقیاس با H2O — یادگیری عمیق در مقیاس بزرگ با H2O — Gridsearch on H2O — یادگیری عمیق و پیشآموزش بدون نظارت — یادگیری عمیق با theanets — رمزگذارهای خودکار و یادگیری بدون نظارت — رمزگذارهای خودکار — خلاصه — فصل 5: یادگیری عمیق با TensorFlow — نصب TensorFlow — عملیات TensorFlow — محاسبات GPU — رگرسیون خطی با SGD — یک شبکه عصبی از ابتدا در TensorFlow — یادگیری ماشین در TensorFlow با SkFlow — یادگیری عمیق با فایل های بزرگ — یادگیری افزایشی — Keras و نصب TensorFlow — شبکه های عصبی کانولوشن در TensorFlow از طریق Keras — لایه کانولوشن — لایه ادغام — لایه کاملا متصل — CNN با رویکرد افزایشی — محاسبات GPU — خلاصه — فصل 6: طبقه بندی و درختان رگرسیون در مقیاس — تجمع بوت استرپ — جنگل تصادفی و جنگل بسیار تصادفی — بهینه سازی پارامترهای سریع با جستجوی تصادفی — درختان بسیار تصادفی و مجموعه داده های بزرگ

CART و تقویت — ماشین های تقویت کننده گرادیان — max_depth — Learning_rate — نمونه فرعی — GBM سریعتر با شروع گرم — آموزش و ذخیره سازی مدل‌های GBM — XGBoost — رگرسیون XGBoost — XGBoost و اهمیت متغیر — پخش جریانی مجموعه داده‌های بزرگ XGBoost — تداوم مدل XGBoost — CART خارج از هسته با H2O — جستجوی تصادفی جنگل و شبکه در H2O — تقویت گرادیان تصادفی و جستجوی شبکه ای در H2O — خلاصه — فصل 7: یادگیری بدون نظارت در مقیاس — روش های بدون نظارت — تجزیه ویژگی – PCA — PCA تصادفی — PCA افزایشی — PCA پراکنده — PCA با H2O — خوشه بندی – K-means – – روش‌های اولیه‌سازی – فرضیات K-means – انتخاب بهترین K – مقیاس‌بندی K-means – دسته کوچک – K-means با H2O – LDA – مقیاس‌گذاری LDA – حافظه، پردازنده‌ها و ماشین‌ها – خلاصه — فصل 8: محیط های توزیع شده – Hadoop و Spark — از یک ماشین مستقل تا یک دسته گره — چرا به یک چارچوب توزیع شده نیاز داریم؟ — راه اندازی VM — VirtualBox — Vagrant — استفاده از VM — اکوسیستم Hadoop — معماری — HDFS — MapReduce — YARN — Spark — pySpark — خلاصه — فصل 9: ماشین عملی یادگیری با اسپارک — راه اندازی ماشین مجازی برای این فصل — به اشتراک گذاری متغیرها در گره های خوشه — متغیرهای فقط خواندنی پخش — متغیرهای فقط نوشتن انباشته — پخش و انباشته با هم — یک مثال — پیش پردازش داده در Spark — فایل‌های JSON و Spark DataFrames — مقابله با داده‌های از دست رفته — گروه‌بندی و ایجاد جداول در حافظه — نوشتن DataFrame یا RDD از پیش پردازش شده در دیسک — کار با Spark DataFrames — یادگیری ماشینی با Spark — Spark در مجموعه داده KDD99 – – خواندن مجموعه داده – مهندسی ویژگی – آموزش یک یادگیرنده – ارزیابی عملکرد یادگیرنده – قدرت خط لوله ML – تنظیم دستی – اعتبار متقابل – پاکسازی نهایی – خلاصه

پیوست: مقدمه GPU و Theano — محاسبات GPU — Theano – محاسبات موازی در GPU — نصب Theano — Index بیشتر بخوانید…

چکیده: جلد — حق چاپ — اعتبار — درباره نویسندگان — درباره داوران — www.PacktPub.com — فهرست مطالب — پیشگفتار — فصل 1: مراحل اول مقیاس پذیری — توضیح مقیاس پذیری با جزئیات — ساختن نمونه های در مقیاس بزرگ — معرفی پایتون — مقیاس پذیری با پایتون — مقیاس پذیری با پایتون — پایتون برای یادگیری ماشینی در مقیاس بزرگ — انتخاب بین پایتون 2 و پایتون 3 — نصب Python — نصب گام به گام — نصب بسته ها — ارتقاء بست


 

tag : دانلود کتاب یادگیری ماشینی در مقیاس بزرگ با پایتون , Download یادگیری ماشینی در مقیاس بزرگ با پایتون , دانلود یادگیری ماشینی در مقیاس بزرگ با پایتون , Download Large Scale Machine Learning with Python Book , یادگیری ماشینی در مقیاس بزرگ با پایتون دانلود , buy یادگیری ماشینی در مقیاس بزرگ با پایتون , خرید کتاب یادگیری ماشینی در مقیاس بزرگ با پایتون , دانلود کتاب Large Scale Machine Learning with Python , کتاب Large Scale Machine Learning with Python , دانلود Large Scale Machine Learning with Python , خرید Large Scale Machine Learning with Python , خرید کتاب Large Scale Machine Learning with Python ,

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “دانلود کتاب Large Scale Machine Learning with Python – یادگیری ماشینی در مقیاس بزرگ با پایتون”