دانلود کتاب Statistical learning for biomedical data – یادگیری آماری برای داده های زیست پزشکی

دسته بندی :
اطلاعات کتاب
  • جلد
  • سری Practical guides to biostatistics and epidemiology
  • ویرایش
  • سال 2011
  • نویسنده (گان) James D Malley; Karen G Malley; Sinisa Pajevic
  • ناشر Cambridge University Press
  • زبان English
  • تعداد صفحات
  • حجم فایل 1.49MB
  • فرمت فایل pdf
  • شابک 9780521875806, 0521875803, 9780521699099, 0521699096
قیمت محصول :

45,000 تومان

با خرید این محصول، 2,250 تومان به کیف پول شما بازگشت داده می‌شود

روند خرید و دریافت کتاب‌ها بدون هیچ اختلالی انجام می‌شود.
تمامی فایل‌ها بر روی سرورهای داخلی میزبانی می‌شوند تا بتوانید به راحتی و در لحظه آن‌ها را دانلود کنید. در صورت بروز هرگونه مشکل یا نیاز به راهنمایی، لطفاً از طریق « صفحه تماس باما» با تیم پشتیبانی در ارتباط باشید.

تمامی کتاب های موجود در وبسایت سای وان به زبان انگلیسی میباشد

توضیحات

Machine generated contents note: 1.Prologue — 1.1.Machines that learn — some recent history — 1.2.Twenty canonical questions — 1.3.Outline of the book — 1.4.A comment about example datasets — 1.5.Software — Note — 2.The landscape of learning machines — 2.1.Introduction — 2.2.Types of data for learning machines — 2.3.Will that be supervised or unsupervised? — 2.4.An unsupervised example — 2.5.More lack of supervision — where are the parents? — 2.6.Engines, complex and primitive — 2.7.Model richness means what, exactly? — 2.8.Membership or probability of membership? — 2.9.A taxonomy of machines? — 2.10.A note of caution — one of many — 2.11.Highlights from the theory — Notes — 3.A mangle of machines — 3.1.Introduction — 3.2.Linear regression — 3.3.Logistic regression — 3.4.Linear discriminant — 3.5.Bayes classifiers [-] regular and naive — 3.6.Logic regression — 3.7.k-Nearest neighbors — 3.8.Support vector machines — 3.9.Neural networks — 3.10.Boosting — 3.11.Evolutionary and genetic algorithms — Notes — 4.Three examples and several machines — 4.1.Introduction — 4.2.Simulated cholesterol data — 4.3.Lupus data — 4.4.Stroke data — 4.5.Biomedical means unbalanced — 4.6.Measures of machine performance — 4.7.Linear analysis of cholesterol data — 4.8.Nonlinear analysis of cholesterol data — 4.9.Analysis of the lupus data — 4.10.Analysis of the stroke data — 4.11.Further analysis of the lupus and stroke data — Notes — 5.Logistic regression — 5.1.Introduction — 5.2.Inside and around the model — 5.3.Interpreting the coefficients — 5.4.Using logistic regression as a decision rule — 5.5.Logistic regression applied to the cholesterol data — 5.6.A cautionary note — 5.7.Another cautionary note — 5.8.Probability estimates and decision rules — 5.9.Evaluating the goodness-of-fit of a logistic regression model — 5.10.Calibrating a logistic regression — 5.11.Beyond calibration — 5.12.Logistic regression and reference models — Notes — 6.A single decision tree — 6.1.Introduction — 6.2.Dropping down trees — 6.3.Growing a tree — 6.4.Selecting features, making splits — 6.5.Good split, bad split — 6.6.Finding good features for making splits — 6.7.Misreading trees — 6.8.Stopping and pruning rules — 6.9.Using functions of the features — 6.10.Unstable trees? — 6.11.Variable importance — growing on trees? — 6.12.Permuting for importance — 6.13.The continuing mystery of trees — 7.Random Forests — trees everywhere — 7.1.Random Forests in less than five minutes — 7.2.Random treks through the data — 7.3.Random treks through the features — 7.4.Walking through the forest — 7.5.Weighted and unweighted voting — 7.6.Finding subsets in the data using proximities — 7.7.Applying Random Forests to the Stroke data — 7.8.Random Forests in the universe of machines — Notes — 8.Merely two variables — 8.1.Introduction — 8.2.Understanding correlations — 8.3.Hazards of correlations — 8.4.Correlations big and small — Notes — 9.More than two variables — 9.1.Introduction — 9.2.Tiny problems, large consequences — 9.3.Mathematics to the rescue? — 9.4.Good models need not be unique — 9.5.Contexts and coefficients — 9.6.Interpreting and testing coefficients in models — 9.7.Merging models, pooling lists, ranking features — Notes — 10.Resampling methods — 10.1.Introduction — 10.2.The bootstrap — 10.3.When the bootstrap works — 10.4.When the bootstrap doesn’t work — 10.5.Resampling from a single group in different ways — 10.6.Resampling from groups with unequal sizes — 10.7.Resampling from small datasets — 10.8.Permutation methods — 10.9.Still more on permutation methods — Note — 11.Error analysis and model validation — 11.1.Introduction — 11.2.Errors? What errors? — 11.3.Unbalanced data, unbalanced errors — 11.4.Error analysis for a single machine — 11.5.Cross-validation error estimation — 11.6.Cross-validation or cross-training? — 11.7.The leave-one-out method — 11.8.The out-of-bag method — 11.9.Intervals for error estimates for a single machine — 11.10.Tossing random coins into the abyss — 11.11.Error estimates for unbalanced data — 11.12.Confidence intervals for comparing error values — 11.13.Other measures of machine accuracy — 11.14.Benchmarking and winning the lottery — 11.15.Error analysis for predicting continuous outcomes — Notes — 12.Ensemble methods [–] let’s take a vote — 12.1.Pools of machines — 12.2.Weak correlation with outcome can be good enough — 12.3.Model averaging — Notes — 13.Summary and conclusions — 13.1.Where have we been? — 13.2.So many machines — 13.3.Binary decision or probability estimate? — 13.4.Survival machines? Risk machines? — 13.5.And where are we going?

————————————————————–

ترجمه ماشینی :

یادداشت محتویات تولید شده توسط ماشین: 1. مقدمه — 1.1. ماشین هایی که یاد می گیرند — چند تاریخ اخیر — 1.2. بیست سؤال متعارف — 1.3. طرح کلی کتاب — 1.4. نظر در مورد مجموعه داده های نمونه — 1.5. نرم افزار — – توجه — 2. چشم انداز ماشین های یادگیری — 2.1. مقدمه — 2.2. انواع داده ها برای ماشین های یادگیری — 2.3. آیا آنها نظارت خواهند شد یا بدون نظارت؟ — 2.4. یک مثال بدون نظارت — 2.5. عدم نظارت بیشتر — والدین کجا هستند؟ — 2.6.موتورها، پیچیده و ابتدایی — 2.7. غنای مدل دقیقاً به چه معناست؟ — 2.8.عضویت یا احتمال عضویت؟ — 2.9. طبقه بندی ماشین ها؟ — 2.10. نکته احتیاط — یکی از بسیاری — 2.11. نکات برجسته از تئوری — یادداشت ها — 3. درهم و برهم از ماشین ها — 3.1. مقدمه — 3.2. رگرسیون خطی — 3.3. رگرسیون لجستیک — – 3.4. تشخیص خطی – 3.5. طبقه بندی کننده های بیس [-] منظم و ساده – 3.6. رگرسیون منطقی – 3.7.k-نزدیک ترین همسایگان – 3.8. ماشین های بردار پشتیبانی – 3.9. شبکه های عصبی – 3.10. تقویت کننده – – 3.11. الگوریتم های تکاملی و ژنتیک – یادداشت ها – 4. سه مثال و چندین ماشین – 4.1. مقدمه – 4.2. داده های کلسترول شبیه سازی شده – 4.3. داده های لوپوس – 4.4. داده های سکته مغزی – 4.5. معنی های زیست پزشکی نامتعادل — 4.6. اندازه گیری عملکرد دستگاه — 4.7. تجزیه و تحلیل خطی داده های کلسترول — 4.8. تجزیه و تحلیل غیرخطی داده های کلسترول — 4.9. تجزیه و تحلیل داده های لوپوس — 4.10. تجزیه و تحلیل داده های سکته مغزی — 4.11. تجزیه و تحلیل بیشتر از داده های لوپوس و سکته مغزی — یادداشت ها — 5. رگرسیون لجستیک — 5.1. مقدمه — 5.2. داخل و اطراف مدل — 5.3. تفسیر ضرایب — 5.4. استفاده از رگرسیون لجستیک به عنوان یک قانون تصمیم — 5.5 رگرسیون لجستیک اعمال شده بر روی داده های کلسترول — 5.6. یک یادداشت احتیاطی — 5.7. نکته احتیاطی دیگر — 5.8. تخمین های احتمال و قوانین تصمیم — 5.9. ارزیابی برازش مناسب یک مدل رگرسیون لجستیک — 5.10 کالیبراسیون یک رگرسیون لجستیک — 5.11. فراتر از کالیبراسیون — 5.12. رگرسیون لجستیک و مدل های مرجع — یادداشت ها — 6. درخت تصمیم واحد — 6.1. مقدمه — 6.2. انداختن درختان — 6.3. رشد درخت — 6.4.انتخاب ویژگی ها، ایجاد شکاف — 6.5. تقسیم خوب، تقسیم بد — 6.6. یافتن ویژگی های خوب برای ایجاد شکاف — 6.7.خواندن اشتباه درختان — 6.8.قوانین توقف و هرس — 6.9.استفاده از توابع ویژگی ها — 6.10. درختان ناپایدار؟ — 6.11. اهمیت متغیر — رشد روی درختان؟ — 6.12. تغییر برای اهمیت — 6.13. رمز و راز مداوم درختان — 7. جنگل های تصادفی — درختان در همه جا — 7.1. جنگل های تصادفی در کمتر از پنج دقیقه — 7.2. سفرهای تصادفی از طریق داده ها — 7.3. سفرهای تصادفی در میان ویژگی ها — 7.4. راه رفتن در جنگل — 7.5. رأی گیری وزنی و بدون وزن — 7.6. یافتن زیر مجموعه ها در داده ها با استفاده از مجاورت — 7.7. اعمال جنگل های تصادفی به داده های Stroke — 7.8. جنگل های تصادفی در جهان ماشین ها — یادداشت ها — 8. صرفاً دو متغیر — 8.1. مقدمه — 8.2. درک همبستگی ها — 8.3. خطرات همبستگی — 8.4. همبستگی های بزرگ و کوچک — یادداشت ها — 9. بیش از دو متغیرها — 9.1. مقدمه — 9.2. مسائل کوچک، پیامدهای بزرگ — 9.3. ریاضیات برای نجات؟ — 9.4. مدل های خوب لازم نیست منحصر به فرد باشند — 9.5. زمینه ها و ضرایب — 9.6. تفسیر و آزمایش ضرایب در مدل ها — 9.7. ادغام مدل ها، فهرست های ادغام، ویژگی های رتبه بندی — یادداشت ها — 10. روش های نمونه گیری مجدد — 10.1. مقدمه — 10.2. بوت استرپ — 10.3. هنگامی که بوت استرپ کار می کند — 10.4. هنگامی که بوت استرپ کار نمی کند — 10.5. نمونه گیری مجدد از یک گروه به روش های مختلف — 10.6. نمونه گیری مجدد از گروه هایی با اندازه های نابرابر — 10.7. نمونه برداری مجدد از مجموعه داده های کوچک — 10.8. روش های جایگشت — 10.9. هنوز بیشتر در مورد روش های جایگشت — توجه — 11. تجزیه و تحلیل خطا و اعتبارسنجی مدل — 11.1. مقدمه — 11.2. خطاها؟ چه خطاهایی؟ — 11.3. داده های نامتعادل، خطاهای نامتعادل — 11.4. تجزیه و تحلیل خطا برای یک دستگاه واحد — 11.5. تخمین خطای اعتبارسنجی متقابل — 11.6. اعتبار سنجی متقابل یا آموزش متقابل؟ — 11.7.روش ترک یک خروجی — 11.8.روش خارج از کیسه — 11.9. فواصل برای تخمین خطا برای یک ماشین — 11.10.پرتاب سکه های تصادفی به ورطه — 11.11.تخمین خطا برای داده های نامتعادل — 11.12. فواصل اطمینان برای مقایسه مقادیر خطا — 11.13. سایر معیارهای دقت دستگاه — 11.14. محک زدن و برنده شدن در قرعه کشی — 11.15. تجزیه و تحلیل خطا برای پیش بینی نتایج مستمر — یادداشت ها — 12. روش های Ensemble [–] بیایید رای دهیم — 12.1. مجموعه ای از ماشین ها — 12.2. همبستگی ضعیف با نتیجه می تواند به اندازه کافی خوب باشد — 12.3. میانگین گیری مدل — یادداشت ها — 13. خلاصه و نتیجه گیری — 13.1. ما کجا داریم بوده؟ — 13.2. تعداد زیادی ماشین — 13.3.تصمیم گیری باینری یا تخمین احتمال؟ — 13.4.ماشین های بقا؟ ماشین های ریسک؟ — 13.5.و به کجا می رویم؟


 

tag : دانلود کتاب یادگیری آماری برای داده های زیست پزشکی , Download یادگیری آماری برای داده های زیست پزشکی , دانلود یادگیری آماری برای داده های زیست پزشکی , Download Statistical learning for biomedical data Book , یادگیری آماری برای داده های زیست پزشکی دانلود , buy یادگیری آماری برای داده های زیست پزشکی , خرید کتاب یادگیری آماری برای داده های زیست پزشکی , دانلود کتاب Statistical learning for biomedical data , کتاب Statistical learning for biomedical data , دانلود Statistical learning for biomedical data , خرید Statistical learning for biomedical data , خرید کتاب Statistical learning for biomedical data ,

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “دانلود کتاب Statistical learning for biomedical data – یادگیری آماری برای داده های زیست پزشکی”