با اپلیکیشن چرب زبان، هر زبان خارجی رو در 80 روز یاد بگیر قورت بده

دانلود
اموزشی

آموزش شبکه عصبی کانولوشن در پایتون (و 0 تا 100 مفاهیم آن)

شبکه‌های عصبی کانولوشن (Convolutional Neural Networks یا CNN) یکی از قدرتمندترین الگوریتم‌های یادگیری عمیق (Deep Learning) هستند که به‌طور خاص برای پردازش داده‌هایی با ساختار شبکه‌ای مانند تصاویر، ویدئوها و داده‌های سری زمانی طراحی شده‌اند. اگر با هوش مصنوعی و بینایی ماشین سروکار دارید، یادگیری CNN یک گام حیاتی است. در این مقاله، ما این معماری پیچیده را به زبان ساده از پایه تا پیاده‌سازی در پایتون و فریم‌ورک‌های محبوب TensorFlow/Keras آموزش خواهیم داد تا حتی بدون دانش قبلی هم بتوانید آن را درک کنید.

۱. شبکه عصبی کانولوشن (CNN) چیست؟

تصور کنید که می‌خواهید به کامپیوتر آموزش دهید تا یک گربه را در تصویر تشخیص دهد. یک شبکه عصبی معمولی (مانند شبکه‌های کاملاً متصل یا Fully Connected Networks) یک تصویر را به صورت یک بردار خطی از پیکسل‌ها دریافت می‌کند. این کار باعث می‌شود اطلاعات مکانی (Spatial Information) مهم، مانند اینکه چشم‌ها و گوش‌ها در کجای تصویر نسبت به هم قرار دارند، از دست برود.

آموزشی | برنامه نویسی | پایتون

CNN با الهام از سیستم بینایی بیولوژیکی، این مشکل را حل می‌کند. این شبکه‌ها با استفاده از لایه‌های خاصی به نام لایه کانولوشن، توانایی یادگیری الگوهای مکانی و سلسله‌مراتبی را پیدا می‌کنند؛ یعنی ابتدا خطوط و لبه‌ها را یاد می‌گیرند، سپس ترکیب آن‌ها را به شکل‌های پیچیده‌تر مانند چشم و گوش، و در نهایت کل شیء (گربه) را تشخیص می‌دهند.

مزایای کلیدی CNN:

  • اشتراک پارامترها (Parameter Sharing): برخلاف شبکه‌های معمولی، CNN از یک فیلتر (وزن) برای کل تصویر استفاده می‌کند، نه یک وزن مجزا برای هر پیکسل. این کار تعداد پارامترهای مدل را به شدت کاهش می‌دهد.
  • تشخیص ویژگی‌های محلی (Local Feature Extraction): تمرکز بر روی نواحی کوچک تصویر و استخراج الگوهای محلی (مانند لبه‌ها، بافت‌ها).
  • ناوردایی انتقال (Translation Invariance): CNN می‌تواند یک شیء را حتی اگر در مکان‌های مختلف تصویر جابه‌جا شده باشد، تشخیص دهد.

کد های پایتون

۲. بلوک‌های سازنده معماری CNN

یک معماری CNN معمولاً از دنباله‌ای از سه نوع لایه اصلی تشکیل شده است: لایه کانولوشن، لایه پولینگ (ادغام) و در نهایت لایه کاملاً متصل.

لایه عملکرد اصلی هدف
کانولوشن (Conv2D) استخراج ویژگی‌ها با اعمال فیلتر شناسایی الگوهای محلی (لبه‌ها، بافت‌ها)
پولینگ (Pooling) کاهش ابعاد تصویر ویژگی (نقشه ویژگی) کاهش محاسبات و جلوگیری از بیش‌برازش (Overfitting)
کاملاً متصل (Fully Connected) طبقه‌بندی بر اساس ویژگی‌های استخراج شده تبدیل خروجی به احتمال‌های کلاس‌ها

۲.۱. لایه کانولوشن (Convolutional Layer)

این لایه قلب CNN است. عملیات کانولوشن به‌سادگی، ضرب یک ماتریس کوچک به نام فیلتر (Filter) یا کرنل (Kernel) در نواحی محلی تصویر ورودی است.

  • فیلتر (کرنل): یک ماتریس کوچک $N \times N$ (مانند $3 \times 3$ یا $5 \times 5$) که در واقع وزن‌های قابل آموزش CNN هستند. هر فیلتر برای تشخیص یک ویژگی خاص (مثلاً لبه عمودی) آموزش می‌بیند.
  • عملیات کانولوشن: فیلتر روی ورودی (تصویر یا خروجی لایه قبلی) می‌لغزد (به سمت راست و پایین حرکت می‌کند) و در هر نقطه، عملیات ضرب نقطه‌ای انجام می‌شود. خروجی این عملیات یک ماتریس جدید به نام نقشه ویژگی (Feature Map) است که نشان می‌دهد آن ویژگی خاص در کجای تصویر وجود دارد.
  • گام (Stride): تعداد پیکسل‌هایی که فیلتر در هر حرکت جابه‌جا می‌شود. (معمولاً ۱ یا ۲).
  • پدینگ (Padding): اضافه کردن صفر به حاشیه تصویر ورودی برای حفظ اندازه فضایی خروجی یا استفاده از داده‌های لبه‌ها. (معمولاً “same” یا “valid”).
  • تابع فعال‌سازی ReLU (Rectified Linear Unit): بعد از عملیات کانولوشن، برای افزودن غیرخطی‌سازی به مدل، تابع ReLU اعمال می‌شود ($f(x) = \max(0, x)$). این تابع اعداد منفی را صفر و مثبت‌ها را بدون تغییر برمی‌گرداند.

کد نویسی

۲.۲. لایه پولینگ (Pooling Layer)

لایه پولینگ برای کاهش ابعاد فضایی (اندازه طول و عرض) نقشه ویژگی‌ها، کاهش محاسبات و حفظ مهم‌ترین اطلاعات استفاده می‌شود.

  • ماکزیمم پولینگ (Max Pooling): رایج‌ترین نوع است. یک پنجره کوچک (مثلاً $2 \times 2$) روی نقشه ویژگی حرکت می‌کند و بزرگترین عدد موجود در آن پنجره را انتخاب می‌کند. این کار به مدل اجازه می‌دهد تا نسبت به تغییرات کوچک در مکان ویژگی‌ها مقاوم باشد (ناوردایی).

۲.۳. لایه کاملاً متصل (Fully Connected Layer)

پس از چندین مرحله کانولوشن و پولینگ، ویژگی‌های سطح بالا استخراج شده‌اند. این نقشه ویژگی‌ها، قبل از ورود به این لایه، با عملیات Flatten به یک بردار یک‌بعدی تبدیل می‌شوند.

  • عملیات Flatten: تبدیل توده داده‌های سه‌بعدی (طول، عرض، تعداد فیلتر) به یک بردار خطی.
  • لایه متصل: مانند یک شبکه عصبی معمولی عمل کرده و از ویژگی‌های استخراج شده برای انجام طبقه‌بندی نهایی استفاده می‌کند.
  • لایه خروجی: در نهایت، لایه خروجی با یک تابع فعال‌سازی مانند Softmax برای مسائل طبقه‌بندی (تعیین احتمال تعلق تصویر به هر کلاس) یا Sigmoid برای مسائل طبقه‌بندی دوتایی (Binary Classification) استفاده می‌شود.

۳. پیاده‌سازی CNN در پایتون با Keras/TensorFlow

برای پیاده‌سازی CNN از فریم‌ورک‌های محبوبی چون TensorFlow و Keras (که اکنون بخشی از TensorFlow است) استفاده می‌کنیم. در اینجا یک الگوی کلی برای ساخت یک مدل طبقه‌بندی تصویر ساده با استفاده از مجموعه داده‌ای مانند CIFAR-10 یا MNIST آورده شده است.

پایتون

۳.۱. مراحل آماده‌سازی

قبل از هر چیز، باید کتابخانه‌های مورد نیاز را نصب کرده و داده‌ها را آماده کنیم.

  • نصب کتابخانه‌ها:

Bash

pip install tensorflow keras numpy matplotlib

بارگذاری و پیش‌پردازش داده‌ها (مثال: CIFAR-10):

  • تصاویر باید به آرایه‌های NumPy تبدیل شوند.
  • نرمال‌سازی (Normalization): مقادیر پیکسل‌ها را از بازه [۰, ۲۵۵] به [۰, ۱] تبدیل می‌کنیم تا آموزش شبکه بهتر انجام شود.

۳.۲. ساختار مدل CNN با Keras

از کلاس Sequential برای تعریف مدل و افزودن لایه‌ها به ترتیب استفاده می‌کنیم.

Python

from tensorflow.keras.models import Sequential

from tensorflow.keras.layers import Conv2D, MaxPooling2D, Flatten, Dense, Dropout

# فرض کنید shape_input = (32, 32, 3) برای تصاویر رنگی 32×32 باشد

shape_input = (32, 32, 3)

model = Sequential([

# لایه کانولوشن اول

Conv2D(filters=32, kernel_size=(3, 3), activation=’relu’, input_shape=shape_input, padding=’same’),

MaxPooling2D(pool_size=(2, 2)),

# لایه کانولوشن دوم

Conv2D(filters=64, kernel_size=(3, 3), activation=’relu’, padding=’same’),

MaxPooling2D(pool_size=(2, 2)),

# لایه کانولوشن سوم

Conv2D(filters=64, kernel_size=(3, 3), activation=’relu’, padding=’same’),

# صاف کردن خروجی برای لایه های کاملاً متصل

Flatten(),

# لایه کاملاً متصل پنهان

Dense(units=512, activation=’relu’),

# لایه Dropout برای جلوگیری از Overfitting (اغلب اضافه می شود)

Dropout(0.5),

# لایه خروجی (10 کلاس در CIFAR-10)

Dense(units=10, activation=’softmax’)

])

model.summary()

۳.۳. کامپایل و آموزش مدل

  • کامپایل (Compile): مدل را برای فرآیند آموزش آماده می‌کنیم.
    • بهینه‌ساز (Optimizer): روشی که وزن‌ها بر اساس آن به‌روزرسانی می‌شوند. Adam یکی از بهترین و رایج‌ترین بهینه‌سازها است.
    • تابع زیان (Loss Function): معیاری برای اندازه‌گیری میزان خطای مدل. برای طبقه‌بندی چندکلاسی از categorical_crossentropy استفاده می‌کنیم.
    • معیار (Metrics): مقادیری برای ارزیابی عملکرد مدل (مانند دقت یا Accuracy).

Python

model.compile(optimizer=’adam’,

loss=’categorical_crossentropy’,

metrics=[‘accuracy’])

# آموزش مدل

# X_train, y_train داده های آموزشی هستند

# epochs تعداد تکرارها و batch_size تعداد نمونه های پردازش شده در هر مرحله است

# model.fit(X_train, y_train, epochs=20, batch_size=64, validation_data=(X_test, y_test))

۴. مفاهیم پیشرفته و نکات مهم در CNN

۴.۱. بیش‌برازش (Overfitting) و راه‌های مقابله با آن

بیش‌برازش زمانی رخ می‌دهد که مدل داده‌های آموزشی را آنقدر خوب یاد می‌گیرد که در تعمیم به داده‌های جدید (داده‌های آزمایشی) عملکرد ضعیفی دارد.

  • Dropout: یک روش رایج است که در طول آموزش، به صورت تصادفی بخشی از نورون‌ها را “خاموش” می‌کند. این کار شبکه را مجبور می‌کند تا کمتر به یک نورون خاص وابسته باشد و ویژگی‌های قوی‌تری یاد بگیرد.
  • Data Augmentation (افزایش داده): با ایجاد نسخه‌های کمی تغییر یافته از تصاویر آموزشی (مانند چرخش، برش، تغییر رنگ و…)، مجموعه داده را بزرگ‌تر می‌کنیم تا مدل بتواند تنوع بیشتری را ببیند.

۴.۲. نرمال‌سازی دسته‌ای (Batch Normalization)

این لایه معمولاً بین لایه کانولوشن و تابع فعال‌سازی ReLU قرار می‌گیرد و به تثبیت فرآیند یادگیری کمک کرده و آموزش مدل‌های عمیق‌تر را سریع‌تر و آسان‌تر می‌کند. با این کار، توزیع ورودی هر لایه به طور متوسط صفر و انحراف معیار یک خواهد بود.

برنامه نویس

۴.۳. یادگیری انتقالی (Transfer Learning)

به جای آموزش یک CNN از صفر، که نیازمند داده‌ها و زمان محاسباتی زیادی است، می‌توانیم از مدل‌های از پیش آموزش داده شده روی مجموعه داده‌های بزرگ (مانند ImageNet) مانند ResNet، VGG یا MobileNet استفاده کنیم. این مدل‌ها ویژگی‌های سطح پایین (لبه‌ها، بافت‌ها) را یاد گرفته‌اند و می‌توانیم آن‌ها را برای حل مسئله خودمان (فقط لایه‌های نهایی را برای کلاس‌های جدید آموزش دهیم) تنظیم کنیم.

فیلم آموزشی برای فهم بهتر

 

۵. خلاصه و جمع‌بندی

شبکه‌های عصبی کانولوشن (CNN) با استفاده از لایه‌هایی مانند کانولوشن، پولینگ و کاملاً متصل، یک روش انقلابی برای استخراج ویژگی‌ها و طبقه‌بندی تصاویر ایجاد کرده‌اند. این شبکه‌ها با اشتراک پارامترها و تمرکز بر ویژگی‌های محلی، عملکردی بی‌نظیر در حوزه بینایی ماشین ارائه می‌دهند. با استفاده از پایتون و فریم‌ورک‌های قدرتمند مانند Keras، می‌توانید به‌راحتی مدل‌های CNN خود را بسازید و برای حل مسائل واقعی مانند تشخیص اشیا یا طبقه‌بندی تصاویر استفاده کنید.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا