دیتا هارت

دیتا هارت

مرجع مجموعه داده ها و مجموعه مقالات فارسی در تمامی رشته ها

  • دهها مقاله فارسی در حوزه آپاچی هدوپ برای علاقه مندان بیگ دیتا(کلان داده)

داده کلان، داده عظیم، بیگ دیتا و داده های حجیم نامهایی است که توسط علاقه مندان هوش مصنوعی در ایران برای بیان بیگ دیتا استفاده شده است. بیگ دیتا به مجموعه داده های بزرگ و عظیمی اشاره می کند که توسط دیتابیس های سنتی قابل پردازش نباشند. بیگ دیتا می تواند شامل داده های ساخت یافته یا غیر ساخت یافته باشد. در بیگ دیتا داده دارای مقدا، گوناگونی و تغییر پذیری بالایی است و دارای سرعت تلوید بالایی است. این ویژگی ها باعث شده است کار با این داده ها چالش برانگیز باشد.

مقالات فارسی برای یادگیری کشف دانش از شبکه های اجتماعی

شبکه های اجتماعی

مقالات فارسی و انگلیسی در مورد یادگیری عمیق

مقالات فارسی و انگلیسی برای یادگیری بیگ دیتا(کلان داده)

مقالات فارسی برای کسانی که به دنبال تحقیق در مورد موضوعی هستند بهترین نقطه شروع است. در این سری مقالات آخرین دستاوردهای محققین داخلی در مورد هدوپ موجود می باشد. جدید بودن این مقالات می تواند برای محققینی که در این زمینه فعال هستند مفید باشد. لیست مقالات ارائه شده در مجموعه مقالات هدوپ ارائه شده اند:

ارایه یک مدل امن برای چارچوب هدوپ بر پایه مدلسازی تهدید

 بررسی ارزیابی کارآیی معیارهای آپاچی هدوپ
 بررسی رویکرد ها برای بهبود کارایی فایل های کوچک در سیستم توزیع شده هدوپ
هدوپ راهکاری برای داده های انبوه
زمان بندی وظایف در چارچوب هدوپ با خوشه بندی گره های محاسباتی ناهمگن
مروری بر الگوریتم های زمانبندی وظایف نگاشت کاهش در چارچوب هدوپ
مروری بر الگوریتم های زمانبندی جریان کار در چارچوب هدوپ
بررسی کارایی الگوریتم جلورونده– عقبرونده در محیط هدوپ رویکرد نگاشت کاهش
بررسی کارایی الگوریتم جلورونده – عقب رونده در محیط هدوپ (رویکردنگاشت کاهش تودرتو)
پشتیبانی از هدوپ و پردازش بزرگ داده ها در MATLAB
 روش استخراج ویژگی های و دسته بندی تصویرها براساس BoVW در چارچوب هدوپ به وسیله MATLAB
 بهبود عملکرد سیستم توصیه گر کتاب با استفاده از محاسبات توزیع شده و موازی هدوپ
 هدوپ و بررسی سرویس نگاشت کاهش
چالش ها و راهکارهای ارتقا قابلیت دسترسی در سیستم فایل توزیع شده هدوپ
روشی برای ادغام و یکپارچهسازی دادههای حجیم در تجارت الکترونیک با استفاده از پلت فرم هدوپ
مروری بر روشهای استفاده شده در تخمین زمان اجرای وظایف نگاشت کاهش به منظور استفاده در اجرای احتکار آمیز در هدوپ
استراتژی جایگزینی داده های پویا برای هدوپ در محیط های همگن
تحلیل داده های بزرگ با استفاده از آپاچی هدوپ
پژوهش های نوین در هوشمندی کسب و کار: اکوسیستم توزیعی هدوپ
ارزیابی مقیاس پذیری چارچوب هدوپ جهت جستجوی کلمات در داده های بزرگ
 استفاده از سیستم فایل توزیع شده هدوپ و ساختار بلاک بندی داده در حجیم داده
 الگوریتمی بهینه برای توازن سازی بار به صورت پویا در اکوسیستم هدوپ
 سیستم توصیه گر مقالات علمی مبتنی بر اطلاعاتزمینه ای با استفاده از پلت فرم هدوپ
پردازش داده های عظیم با استفاده از الگوی نگاشت کاهش - بر بستر هدوپ
داده کاوی توزیع شده بر روی کلان داده ها با استفاده از چارچوب هدوپ به (مطالعه موردی: مرکز آمار ایران)
مدیریت بهینه مصرف انرژی در سیستم فایل توزیع شده هدوپ
بررسی سیستم فایل توزیع شده هدوپ
هدوپ و نقش آن در پردازش تصویر معاصر
 کار با مشکل فایل های کوچک در فایل توزیع سیستم Hadoop
 خوشه بندی داده های ابعادبالا با استفاده از آنتروپی و مدل MapReduce در Hadoop-Mahout
 رویکردمدل MapReduce درپردازش داده های عظیم دراکوسیستم Hadoop-Mahout
مروری بر بهبود دهی الگوریتم های زمانبندی Mapreduce در Hadoop
مروری بر محاسبات موازی بر روی مجموعه داده های بزرگ مبتنی بر تکنیک MapReduce و Hadoop
عنوان مقاله: بررسی چالش ها و راهکارهای مربوط به تحلیل داده های بزرگ در مراکز درمانی بر اساس ساختار Hadoop
 بررسی برنامه ریزی در Hadoop
ارزیابی روش های زمانبندی وظایف در سرویس نگاشت-کاهش و چارچوبHadoop
پردازش داده های هواشناسی ایران براساس Hadoop mapreduce
استفاده ازالگوی MapReduce برای پردازش داده های حجیم درhadoop®
با خرید این مقالات، فایل پی دی اف این مقالات برای شما ارسال می گردد.