توضیحات
With the ever increasing volume of data, data quality problems abound. Multiple, yet different representations of the same real-world objects in data, duplicates, are one of the most intriguing data quality problems. The effects of such duplicates are detrimental; for instance, bank customers can obtain duplicate identities, inventory levels are monitored incorrectly, catalogs are mailed multiple times to the same household, etc. Automatically detecting duplicates is difficult: First, duplicate representations are usually not identical but slightly differ in their values. Second, in principle all pairs of records should be compared, which is infeasible for large volumes of data. This lecture examines closely the two main components to overcome these difficulties: (i) Similarity measures are used to automatically identify duplicates when comparing two records. Well-chosen similarity measures improve the effectiveness of duplicate detection. (ii) Algorithms are developed to perform on very large volumes of data in search for duplicates. Well-designed algorithms improve the efficiency of duplicate detection. Finally, we discuss methods to evaluate the success of duplicate detection. Table of Contents: Data Cleansing: Introduction and Motivation / Problem Definition / Similarity Functions / Duplicate Detection Algorithms / Evaluating Detection Success / Conclusion and Outlook / Bibliography
————————————————————–
ترجمه ماشینی :
با افزایش روزافزون حجم داده ها، مشکلات کیفیت داده ها فراوان است. نمایش های متعدد و در عین حال متفاوت از یک اشیاء واقعی در داده ها، تکراری، یکی از جالب ترین مشکلات کیفیت داده ها هستند. اثرات چنین تکراری مضر است. به عنوان مثال، مشتریان بانک میتوانند هویتهای تکراری دریافت کنند، سطوح موجودی به اشتباه نظارت میشود، کاتالوگها چندین بار به یک خانواده پست میشوند، و غیره. دوم، در اصل همه جفت رکوردها باید با هم مقایسه شوند، که برای حجم زیاد داده غیرممکن است. این سخنرانی دو مؤلفه اصلی را برای غلبه بر این مشکلات از نزدیک بررسی می کند: (1) اقدامات مشابه برای شناسایی خودکار موارد تکراری هنگام مقایسه دو رکورد استفاده می شود. اقدامات شباهت به خوبی انتخاب شده، اثربخشی تشخیص تکراری را بهبود می بخشد. (ii) الگوریتمها برای انجام بر روی حجم بسیار زیادی از دادهها در جستجوی موارد تکراری توسعه یافتهاند. الگوریتم های خوب طراحی شده، کارایی تشخیص تکراری را بهبود می بخشد. در نهایت، روشهایی را برای ارزیابی موفقیت تشخیص تکراری مورد بحث قرار میدهیم. فهرست مطالب: پاکسازی داده ها: مقدمه و انگیزه / تعریف مسئله / توابع شباهت / الگوریتم های تشخیص تکراری / ارزیابی موفقیت تشخیص / نتیجه گیری و چشم انداز / کتابشناسی
tag : دانلود کتاب مقدمه ای بر تشخیص تکراری , Download مقدمه ای بر تشخیص تکراری , دانلود مقدمه ای بر تشخیص تکراری , Download An Introduction to Duplicate Detection Book , مقدمه ای بر تشخیص تکراری دانلود , buy مقدمه ای بر تشخیص تکراری , خرید کتاب مقدمه ای بر تشخیص تکراری , دانلود کتاب An Introduction to Duplicate Detection , کتاب An Introduction to Duplicate Detection , دانلود An Introduction to Duplicate Detection , خرید An Introduction to Duplicate Detection , خرید کتاب An Introduction to Duplicate Detection ,

نقد و بررسیها
هنوز بررسیای ثبت نشده است.