40 machine learning level 1 farsi Flashcards

(40 cards)

1
Q

RNN چیست و چه کاربردی دارد؟

A

RNN یا Recurrent Neural Network نوعی شبکه عصبی است که اطلاعات قبلی را در حافظه ذخیره می‌کند و برای داده‌های ترتیبی مانند متن یا سری زمانی استفاده می‌شود.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

چرا RNN‌ها حافظه دارند؟

A

RNN‌ها از حلقه‌هایی در ساختار خود استفاده می‌کنند که اطلاعات از مرحله‌های قبلی را به مراحل بعدی منتقل می‌کند.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

مشکل اصلی RNN‌ها چیست؟

A

RNN‌ها در حفظ اطلاعات طولانی‌مدت مشکل دارند و ممکن است دچار مشکل گرادیان ناپدیدشونده شوند.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

LSTM چگونه مشکل RNN را حل می‌کند؟

A

LSTM از مکانیزم دروازه‌ها (Gates) برای انتخاب اطلاعات مهم و حذف اطلاعات غیرضروری استفاده می‌کند.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

سه نوع دروازه در LSTM چیست؟

A
  1. دروازه ورودی (Input Gate) 2. دروازه خروجی (Output Gate) 3. دروازه فراموشی (Forget Gate).
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

نقش دروازه فراموشی در LSTM چیست؟

A

این دروازه تعیین می‌کند کدام اطلاعات از حافظه حذف شوند.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

GRU چیست؟

A

GRU یا Gated Recurrent Unit نسخه ساده‌شده‌ای از LSTM است که فقط از دو دروازه استفاده می‌کند: Update و Reset.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

تفاوت اصلی LSTM و GRU چیست؟

A

GRU ساده‌تر از LSTM است و نیاز به محاسبات کمتری دارد زیرا دروازه خروجی ندارد.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

چرا از LSTM برای ترجمه ماشین استفاده می‌شود؟

A

زیرا LSTM قادر به حفظ اطلاعات طولانی‌مدت در جملات و متن‌ها است.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Sequence-to-Sequence مدل چیست؟

A

نوعی معماری RNN است که داده‌های ورودی را به دنباله‌ای از داده‌های خروجی تبدیل می‌کند، مثل ترجمه زبان.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

مفهوم Bidirectional RNN چیست؟

A

نوعی RNN که اطلاعات را از دو جهت (قبلی و بعدی) پردازش می‌کند تا عملکرد بهتری داشته باشد.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

مفهوم Attention Mechanism چیست؟

A

مکانیزمی است که به مدل کمک می‌کند اطلاعات مهم‌تر را در داده‌های طولانی شناسایی کند.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Embedding Layer چیست؟

A

لایه‌ای که کلمات را به بردارهایی با ابعاد کمتر تبدیل می‌کند تا معنای آنها بهتر مدل‌سازی شود.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

کاربرد Word Embedding چیست؟

A

برای نمایش کلمات در فضای عددی به نحوی که کلمات مشابه به یکدیگر نزدیک باشند.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

مفهوم Time Step در RNN چیست؟

A

هر نقطه یا مرحله از زمان که داده ورودی به RNN داده می‌شود.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

چرا Sequence Length در RNN مهم است؟

A

طول دنباله تعیین می‌کند که مدل چقدر اطلاعات گذشته را در نظر بگیرد.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

کاربرد اصلی GRU چیست؟

A

در مسائل سری زمانی که نیاز به سرعت و محاسبات کمتر نسبت به LSTM دارند، مانند پیش‌بینی قیمت سهام.

18
Q

چگونه می‌توان داده‌های سری زمانی را پیش‌پردازش کرد؟

A

با استفاده از Normalization، تقسیم داده به بخش‌های آموزشی و آزمایشی، و ایجاد Sliding Windows.

19
Q

Sliding Window در سری زمانی چیست؟

A

تکنیکی برای تقسیم داده‌های سری زمانی به دنباله‌های کوچک‌تر برای آموزش مدل.

20
Q

چرا Gradient Clipping در RNN استفاده می‌شود؟

A

برای جلوگیری از رشد بیش از حد گرادیان‌ها و ایجاد ناپایداری در آموزش.

21
Q

Backpropagation Through Time چیست؟

A

الگوریتمی برای آموزش RNN‌ها که خطاها را در طول زمان به عقب منتشر می‌کند.

22
Q

چرا مشکل گرادیان ناپدیدشونده در RNN مهم است؟

A

زیرا مدل نمی‌تواند اطلاعات مربوط به زمان‌های طولانی را یاد بگیرد.

23
Q

تفاوت RNN و CNN چیست؟

A

RNN برای داده‌های ترتیبی مثل متن و سری زمانی استفاده می‌شود، اما CNN برای داده‌های مکانی مثل تصاویر.

24
Q

Dropout در RNN چگونه استفاده می‌شود؟

A

به‌طور تصادفی برخی از نودها را غیرفعال می‌کند تا مدل از Overfitting جلوگیری کند.

25
مفهوم Stateful RNN چیست؟
نوعی RNN که حالت خود را بین Batch‌های مختلف حفظ می‌کند.
26
چرا Data Augmentation در سری زمانی سخت‌تر است؟
زیرا تغییرات داده‌ها مانند چرخش یا برش ممکن است توالی زمانی را مختل کند.
27
Optimizer مناسب برای RNN چیست؟
الگوریتم‌هایی مانند Adam یا RMSProp که با داده‌های ترتیبی بهتر کار می‌کنند.
28
مفهوم Teacher Forcing در RNN چیست؟
تکنیکی برای استفاده از خروجی واقعی به‌جای پیش‌بینی مدل در آموزش.
29
چرا Batch Size در RNN‌ها کوچک‌تر انتخاب می‌شود؟
برای بهبود همگرایی و کاهش نیاز به حافظه.
30
مفهوم Epoch در آموزش RNN چیست؟
هر بار که تمام داده‌های آموزشی از طریق مدل عبور می‌کنند.
31
Attention چگونه عملکرد RNN را بهبود می‌دهد؟
با تمرکز بر بخش‌های مهم داده به‌جای پردازش همه چیز به یک اندازه.
32
مکانیزم Self-Attention چیست؟
نوعی Attention که هر کلمه را نسبت به سایر کلمات همان دنباله وزن‌دهی می‌کند.
33
Transformer چگونه از RNN متفاوت است؟
Transformer از مکانیزم Self-Attention استفاده می‌کند و نیازی به پردازش ترتیبی ندارد.
34
چرا Normalization در داده‌های سری زمانی مهم است؟
برای کاهش اثر مقیاس داده‌ها و بهبود عملکرد مدل.
35
Gradient Explosion در RNN چیست؟
حالتی که گرادیان‌ها بیش از حد بزرگ می‌شوند و یادگیری مدل ناپایدار می‌شود.
36
پیش‌بینی یک مرحله‌ای (One-Step Ahead Prediction) چیست؟
پیش‌بینی مقدار بعدی در دنباله سری زمانی.
37
پیش‌بینی چند مرحله‌ای (Multi-Step Prediction) چیست؟
پیش‌بینی چندین مقدار بعدی در سری زمانی.
38
کاربرد Attention در ترجمه ماشین چیست؟
برای تمرکز بر کلمات مرتبط در جمله ورودی و بهبود ترجمه.
39
مفهوم Hidden State در RNN چیست؟
برداری که اطلاعات خلاصه شده از مراحل قبلی را نگه می‌دارد.
40
Context Vector در Attention چیست؟
برداری که اطلاعات مهم انتخاب شده توسط مکانیزم Attention را نگه می‌دارد.