عصبی نیٹ ورک پراسرار لگتے ہیں جب تک کہ وہ ایسا نہ کریں۔ اگر آپ نے کبھی سوچا ہے کہ AI میں نیورل نیٹ ورک کیا ہے؟ اور چاہے یہ صرف ایک فینسی ٹوپی کے ساتھ ریاضی ہے، آپ صحیح جگہ پر ہیں۔ ہم اسے عملی رکھیں گے، چھوٹے موڑ پر چھڑکیں گے، اور ہاں - چند ایموجیز۔ آپ یہ جان کر چھوڑ دیں گے کہ یہ سسٹم کیا ہیں، یہ کیوں کام کرتے ہیں، کہاں ناکام ہوتے ہیں، اور ہاتھ ہلائے بغیر ان کے بارے میں کیسے بات کی جائے۔
اس کے بعد آپ جو مضامین پڑھنا پسند کر سکتے ہیں:
🔗 AI تعصب کیا ہے؟
انصاف کو یقینی بنانے کے لیے AI سسٹمز اور حکمت عملیوں میں تعصب کو سمجھنا۔.
🔗 پیشن گوئی AI کیا ہے؟
پیشن گوئی کرنے والا AI مستقبل کے نتائج کی پیشن گوئی کے لیے پیٹرن کا استعمال کیسے کرتا ہے۔.
🔗 AI ٹرینر کیا ہے؟
AI کو تربیت دینے والے پیشہ ور افراد کے کردار اور ذمہ داریوں کو تلاش کرنا۔.
🔗 AI میں کمپیوٹر وژن کیا ہے؟
AI کس طرح کمپیوٹر وژن کے ذریعے بصری ڈیٹا کی تشریح اور تجزیہ کرتا ہے۔.
AI میں نیورل نیٹ ورک کیا ہے؟ 10 سیکنڈ کا جواب ⏱️
نیورل نیٹ ورک سادہ حسابی اکائیوں کا ایک ڈھیر ہے جسے نیورون کہتے ہیں جو نمبروں کو آگے بڑھاتے ہیں، تربیت کے دوران ان کے کنکشن کی طاقت کو ایڈجسٹ کرتے ہیں، اور ڈیٹا میں آہستہ آہستہ پیٹرن سیکھتے ہیں۔ جب آپ گہری سیکھنے کو ، تو اس کا عام طور پر مطلب ہوتا ہے ایک عصبی نیٹ ورک جس میں بہت سی اسٹیک کی گئی پرتیں ہوتی ہیں، آپ ان کو ہاتھ سے کوڈ کرنے کے بجائے خود بخود خصوصیات سیکھتے ہیں۔ دوسرے لفظوں میں: ریاضی کے بہت سے چھوٹے ٹکڑے، چالاکی سے ترتیب دیے گئے، ڈیٹا پر اس وقت تک تربیت دی گئی جب تک کہ وہ کارآمد نہ ہوں [1]۔
نیورل نیٹ ورک کو کیا مفید بناتا ہے؟ ✅
-
نمائندگی کی طاقت : صحیح فن تعمیر اور سائز کے ساتھ، نیٹ ورکس انتہائی پیچیدہ افعال کا تخمینہ لگا سکتے ہیں (دیکھیں یونیورسل اپروکسیمیشن تھیورم) [4]۔
-
آخر سے آخر تک سیکھنا : ہاتھ سے انجینئرنگ کی خصوصیات کے بجائے، ماڈل انہیں دریافت کرتا ہے [1]۔
-
جنرلائزیشن : ایک اچھی طرح سے باقاعدہ نیٹ ورک صرف حفظ ہی نہیں کرتا - یہ نئے، غیر دیکھے ڈیٹا پر کارکردگی کا مظاہرہ کرتا ہے [1]۔
-
اسکیل ایبلٹی : بڑے ڈیٹاسیٹس کے علاوہ بڑے ماڈلز اکثر نتائج کو بہتر بناتے رہتے ہیں... کمپیوٹ اور ڈیٹا کی کوالٹی جیسی عملی حدود تک [1]۔
-
منتقلی : ایک کام میں سیکھی گئی خصوصیات دوسرے کام میں مدد کر سکتی ہیں (ٹرانسفر لرننگ اور فائن ٹیوننگ) [1]۔
چھوٹا سا فیلڈ نوٹ (مثال کا منظرنامہ): ایک چھوٹی پروڈکٹ کی درجہ بندی کرنے والی ٹیم ایک کمپیکٹ CNN کے لیے ہاتھ سے بنی خصوصیات کو تبدیل کرتی ہے، سادہ اضافہ (پلٹنے/کراپ) کرتی ہے، اور توثیق کی خرابی کو دیکھتی ہے - اس لیے نہیں کہ نیٹ ورک "جادو" ہے، بلکہ اس لیے کہ اس نے براہ راست پکسلز سے مزید مفید خصوصیات سیکھی ہیں۔
"AI میں نیورل نیٹ ورک کیا ہے؟" سادہ انگریزی میں، ایک اففی استعارہ کے ساتھ 🍞
بیکری لائن کی تصویر بنائیں۔ اجزاء اندر جاتے ہیں، کارکنان ترکیب کو موافقت دیتے ہیں، ذائقہ جانچنے والے شکایت کرتے ہیں، اور ٹیم دوبارہ ترکیب کو اپ ڈیٹ کرتی ہے۔ نیٹ ورک میں، ان پٹ تہوں سے گزرتے ہیں، نقصان کا فنکشن آؤٹ پٹ کو درجہ دیتا ہے، اور گریڈیئنٹس اگلی بار بہتر کرنے کے لیے وزن کو جھکاتے ہیں۔ استعارے کے طور پر کامل نہیں - روٹی مختلف نہیں ہے - لیکن یہ چپک جاتی ہے [1]۔.
نیورل نیٹ ورک کی اناٹومی 🧩
-
نیوران : وزنی رقم اور ایکٹیویشن فنکشن لگانے والے چھوٹے کیلکولیٹر۔
-
وزن اور تعصبات : سایڈست نوبس جو اس بات کی وضاحت کرتے ہیں کہ سگنل کیسے اکٹھے ہوتے ہیں۔
-
پرتیں : ان پٹ پرت ڈیٹا وصول کرتی ہے، پوشیدہ پرتیں اسے تبدیل کرتی ہیں، آؤٹ پٹ پرت پیشین گوئی کرتی ہے۔
-
ایکٹیویشن فنکشنز : غیر لکیری موڑ جیسے ReLU، sigmoid، tanh، اور softmax سیکھنے کو لچکدار بناتے ہیں۔
-
نقصان کا فنکشن : پیشین گوئی کتنی غلط ہے اس کا اسکور (درجہ بندی کے لیے کراس اینٹروپی، رجعت کے لیے MSE)۔
-
آپٹیمائزر : SGD یا ایڈم جیسے الگورتھم وزن کو اپ ڈیٹ کرنے کے لیے گریڈینٹ کا استعمال کرتے ہیں۔
-
ریگولرائزیشن : ماڈل کو زیادہ فٹ ہونے سے بچانے کے لیے ڈراپ آؤٹ یا وزن میں کمی جیسی تکنیک۔
اگر آپ رسمی علاج چاہتے ہیں (لیکن پھر بھی پڑھنے کے قابل)، کھلی درسی کتاب ڈیپ لرننگ مکمل اسٹیک کا احاطہ کرتی ہے: ریاضی کی بنیادیں، اصلاح، اور عام کرنا [1]۔
ایکٹیویشن فنکشنز، مختصر مگر مددگار ⚡
-
ReLU : منفی کے لیے صفر، مثبت کے لیے لکیری۔ آسان، تیز، موثر۔
-
Sigmoid : 0 اور 1 کے درمیان قدروں کو اسکواش کرتا ہے - مفید لیکن سیر ہو سکتا ہے۔
-
تانہ : سگمائیڈ کی طرح لیکن صفر کے ارد گرد ہم آہنگ۔
-
Softmax : تمام کلاسوں میں خام اسکور کو امکانات میں بدل دیتا ہے۔
آپ کو ہر منحنی شکل کو یاد کرنے کی ضرورت نہیں ہے - صرف تجارتی بندش اور عام ڈیفالٹس کو جانیں [1, 2]۔.
سیکھنا اصل میں کیسے ہوتا ہے: بیک پروپ، لیکن خوفناک نہیں 🔁
-
فارورڈ پاس : پیشین گوئی پیدا کرنے کے لیے ڈیٹا تہہ بہ تہہ بہہ جاتا ہے۔
-
نقصان کا حساب کریں : پیشین گوئی کا سچائی سے موازنہ کریں۔
-
بیک پروپیگیشن : زنجیر کے اصول کا استعمال کرتے ہوئے ہر وزن کے حوالے سے نقصان کے میلان کی گنتی کریں۔
-
اپ ڈیٹ : آپٹمائزر وزن میں تھوڑا سا تبدیلی کرتا ہے۔
-
دہرائیں : بہت سے عہد۔ ماڈل آہستہ آہستہ سیکھتا ہے۔
بصری اور کوڈ سے ملحقہ وضاحتوں کے ساتھ ہینڈ آن وجدان کے لیے، بیک پروپ اور آپٹیمائزیشن پر کلاسک CS231n نوٹس دیکھیں [2]۔.
نیورل نیٹ ورکس کے بڑے خاندان، ایک نظر میں 🏡
-
فیڈ فارورڈ نیٹ ورکس (MLPs) : سب سے آسان قسم۔ ڈیٹا صرف آگے بڑھتا ہے۔
-
Convolutional Neural Networks (CNNs) : مقامی فلٹرز کی بدولت تصاویر کے لیے بہت اچھا ہے جو کناروں، ساخت، شکلوں کا پتہ لگاتے ہیں [2]۔
-
ریکرنٹ نیورل نیٹ ورکس (RNNs) اور مختلف قسمیں : ترتیب کا احساس رکھتے ہوئے متن یا ٹائم سیریز جیسے ترتیبوں کے لیے بنایا گیا ہے [1]۔
-
ٹرانسفارمرز : ایک ہی ترتیب میں تمام پوزیشنوں میں ماڈل تعلقات پر توجہ دیں۔ زبان میں غالب اور اس سے آگے [3]۔
-
گراف نیورل نیٹ ورکس (GNNs) : گراف کے نوڈس اور کناروں پر کام کریں - مالیکیولز، سوشل نیٹ ورکس، سفارش کے لیے مفید ہے [1]۔
-
آٹو اینکوڈرز اور VAEs : کمپریسڈ نمائندگی سیکھیں اور تغیرات پیدا کریں [1]۔
-
جنریٹو ماڈلز : GANs سے لے کر ڈفیوژن ماڈلز تک، جو امیجز، آڈیو، حتیٰ کہ کوڈ کے لیے استعمال ہوتے ہیں [1]۔
CS231n نوٹس خاص طور پر CNNs کے لیے دوستانہ ہیں، جبکہ ٹرانسفارمر پیپر توجہ پر مبنی ماڈلز کے لیے بنیادی ذریعہ ہے [2, 3]۔.
موازنہ ٹیبل: عام عصبی نیٹ ورک کی اقسام، وہ کس کے لیے ہیں، لاگت وائبس، اور وہ کیوں کام کرتے ہیں 📊
| ٹول / قسم | سامعین | قیمت | یہ کیوں کام کرتا ہے۔ |
|---|---|---|---|
| فیڈ فارورڈ (MLP) | مبتدی، تجزیہ کار | کم درمیانہ | سادہ، لچکدار، مہذب بنیادی خطوط |
| سی این این | ویژن ٹیمیں۔ | درمیانہ | مقامی پیٹرن + پیرامیٹر کا اشتراک |
| آر این این / ایل ایس ٹی ایم / جی آر یو | ترتیب والے لوگ | درمیانہ | عارضی میموری-ish… کیپچر آرڈر |
| ٹرانسفارمر | این ایل پی، ملٹی موڈل | متوسط اعلیٰ | توجہ متعلقہ تعلقات پر مرکوز ہے۔ |
| جی این این | سائنسدانوں، recsys | درمیانہ | گراف پر پیغام گزرنے سے ساخت کا پتہ چلتا ہے۔ |
| آٹو اینکوڈر / VAE | محققین | کم درمیانہ | کمپریسڈ نمائندگی سیکھتا ہے۔ |
| GAN / بازی | تخلیقی لیبز | متوسط اعلیٰ | مخالفانہ یا تکراری انکار کرنے والا جادو |
نوٹ: قیمتوں کا تعین حساب اور وقت کے بارے میں ہے۔ آپ کا مائلیج مختلف ہوتا ہے۔ ایک یا دو سیل جان بوجھ کر چیٹی ہے۔.
"AI میں نیورل نیٹ ورک کیا ہے؟" بمقابلہ کلاسیکل ایم ایل الگورتھم ⚖️
-
فیچر انجینئرنگ : کلاسک ایم ایل اکثر دستی خصوصیات پر انحصار کرتا ہے۔ اعصابی جال خود بخود خصوصیات سیکھتے ہیں - پیچیدہ ڈیٹا کے لیے ایک بڑی جیت [1]۔
-
ڈیٹا کی بھوک : نیٹ ورک اکثر زیادہ ڈیٹا کے ساتھ چمکتے ہیں۔ چھوٹا ڈیٹا آسان ماڈل کے حق میں ہو سکتا ہے [1]۔
-
کمپیوٹیشن : نیٹ ورکس جی پی یو جیسے ایکسلریٹر کو پسند کرتے ہیں [1]۔
-
کارکردگی کی حد : غیر ساختہ ڈیٹا (تصاویر، آڈیو، متن) کے لیے، گہرے جال غالب ہوتے ہیں [1، 2]۔
تربیتی ورک فلو جو حقیقت میں عملی طور پر کام کرتا ہے 🛠️
-
مقصد کی وضاحت کریں : درجہ بندی، رجعت، درجہ بندی، نسل - ایک نقصان کا انتخاب کریں جو مماثل ہو۔
-
ڈیٹا جھگڑا : ٹرین/توثیق/ٹیسٹ میں تقسیم۔ خصوصیات کو معمول بنائیں۔ بیلنس کلاسز۔ امیجز کے لیے، افزائش پر غور کریں جیسے پلٹائیں، فصلیں، چھوٹا شور۔
-
فن تعمیر کا انتخاب : سادہ شروع کریں۔ صرف ضرورت کے وقت صلاحیت شامل کریں۔
-
ٹریننگ لوپ : ڈیٹا کو بیچ دیں۔ فارورڈ پاس۔ نقصان کا حساب لگائیں۔ بیک پروپ اپڈیٹ کریں۔ لاگ میٹرکس۔
-
باقاعدہ بنائیں : ڈراپ آؤٹ، وزن میں کمی، جلد بند ہونا۔
-
تشخیص کریں : ہائپر پیرامیٹر کے لیے توثیق کا سیٹ استعمال کریں۔ فائنل چیک کے لیے ایک ٹیسٹ سیٹ رکھیں۔
-
احتیاط سے بھیجیں : بڑھے ہوئے کی نگرانی کریں، تعصب کی جانچ کریں، رول بیکس کی منصوبہ بندی کریں۔
آخر سے آخر تک، ٹھوس تھیوری کے ساتھ کوڈ پر مبنی سبق کے لیے، کھلی درسی کتاب اور CS231n نوٹس قابل اعتماد اینکرز ہیں [1، 2]۔.
اوور فٹنگ، جنرلائزیشن، اور دیگر گریملنز 👀
-
اوور فٹنگ : ماڈل تربیتی نرالا یاد رکھتا ہے۔ مزید ڈیٹا، مضبوط ریگولرائزیشن، یا آسان آرکیٹیکچرز کے ساتھ درست کریں۔
-
انڈر فٹنگ : ماڈل بہت آسان ہے یا ٹریننگ بہت ڈرپوک ہے۔ صلاحیت میں اضافہ کریں یا لمبی ٹریننگ کریں۔
-
ڈیٹا کا اخراج : ٹیسٹ سیٹ سے معلومات تربیت میں داخل ہوتی ہیں۔ اپنے اسپلٹس کو تین بار چیک کریں۔
-
ناقص انشانکن : ایک ایسا ماڈل جو پراعتماد ہے لیکن غلط ہے خطرناک ہے۔ انشانکن یا مختلف وزن میں کمی پر غور کریں۔
-
ڈسٹری بیوشن شفٹ : حقیقی دنیا کا ڈیٹا منتقل ہوتا ہے۔ نگرانی اور موافقت۔
جنرلائزیشن اور ریگولرائزیشن کے پیچھے نظریہ کے لیے، معیاری حوالوں پر جھکاؤ [1، 2]۔.
حفاظت، تشریح، اور ذمہ دارانہ تعیناتی 🧭
عصبی نیٹ ورک اعلی داؤ پر فیصلے کر سکتے ہیں۔ یہ کافی نہیں ہے کہ وہ لیڈر بورڈ پر اچھی کارکردگی کا مظاہرہ کریں۔ آپ کو پورے لائف سائیکل میں گورننس، پیمائش، اور تخفیف کے اقدامات کی ضرورت ہے۔ NIST AI رسک مینجمنٹ فریم ورک عملی افعال کا خاکہ پیش کرتا ہے - GOVERN, MAP, MEASURE, MANAGE - ٹیموں کو ڈیزائن اور تعیناتی میں رسک مینجمنٹ کو مربوط کرنے میں مدد کرنے کے لیے [5]۔
چند فوری نکات:
-
تعصب کی جانچ پڑتال : جہاں مناسب اور جائز ہو وہاں آبادیاتی ٹکڑوں کا جائزہ لیں۔
-
تشریحی قابلیت : سلینسی یا خصوصیت کے انتساب جیسی تکنیکوں کا استعمال کریں۔ وہ نامکمل، پھر بھی مفید ہیں۔
-
مانیٹرنگ : اچانک میٹرک ڈراپ یا ڈیٹا بڑھنے کے لیے الرٹس سیٹ کریں۔
-
انسانی نگرانی : انسانوں کو متاثر کن فیصلوں سے باخبر رکھیں۔ کوئی بہادری نہیں، صرف حفظان صحت۔
اکثر پوچھے گئے سوالات جو آپ نے خفیہ طور پر کیے تھے 🙋
کیا اعصابی نیٹ ورک بنیادی طور پر دماغ ہے؟
دماغ سے متاثر، ہاں - لیکن آسان۔ نیٹ ورکس میں نیوران ریاضی کے افعال ہیں؛ حیاتیاتی نیوران پیچیدہ حرکیات کے ساتھ زندہ خلیات ہیں۔ اسی طرح کے وائبس، بہت مختلف فزکس [1]۔.
مجھے کتنی تہوں کی ضرورت ہے؟
چھوٹی شروعات کریں۔ اگر آپ کم فٹنگ کر رہے ہیں تو چوڑائی یا گہرائی شامل کریں۔ اگر آپ زیادہ فٹنگ کر رہے ہیں تو، ریگولرائز کریں یا صلاحیت کو کم کریں۔ کوئی جادو نمبر نہیں ہے؛ صرف توثیق کے منحنی خطوط اور صبر ہے [1]۔.
کیا مجھے ہمیشہ GPU کی ضرورت ہے؟
ہمیشہ نہیں۔ معمولی ڈیٹا پر چھوٹے ماڈلز CPUs پر تربیت دے سکتے ہیں، لیکن امیجز، بڑے ٹیکسٹ ماڈلز، یا بڑے ڈیٹا سیٹس کے لیے، ایکسلریٹر بہت سارے وقت کی بچت کرتے ہیں [1]۔.
لوگ کیوں کہتے ہیں کہ توجہ طاقتور ہے؟
کیونکہ توجہ ماڈلز کو ترتیب میں سختی سے مارچ کیے بغیر ان پٹ کے انتہائی متعلقہ حصوں پر توجہ مرکوز کرنے دیتی ہے۔ یہ عالمی تعلقات کو اپنی گرفت میں لے لیتا ہے، جو زبان اور ملٹی موڈل کاموں کے لیے ایک بڑا سودا ہے [3]۔.
کیا "AI میں نیورل نیٹ ورک کیا ہے؟" "گہری تعلیم کیا ہے" سے مختلف؟
گہری تعلیم ایک وسیع تر نقطہ نظر ہے جو گہرے اعصابی نیٹ ورکس کا استعمال کرتا ہے۔ تو پوچھنا اے آئی میں نیورل نیٹ ورک کیا ہے؟ مرکزی کردار کے بارے میں پوچھنے کی طرح ہے۔ ڈیپ لرننگ پوری فلم ہے [1]۔
عملی، قدرے رائے پر مبنی تجاویز 💡
-
پہلے سادہ بنیادی خطوط کو ترجیح دیں یہاں تک کہ ایک چھوٹا ملٹی لیئر پرسیپٹرون آپ کو بتا سکتا ہے کہ آیا ڈیٹا سیکھنے کے قابل ہے۔
-
اپنی ڈیٹا پائپ لائن کو دوبارہ پیدا کرنے کے قابل ۔ اگر آپ اسے دوبارہ نہیں چلا سکتے ہیں، تو آپ اس پر بھروسہ نہیں کر سکتے۔
-
سیکھنے کی شرح آپ کے خیال سے زیادہ اہمیت رکھتی ہے۔ ایک شیڈول آزمائیں۔ وارم اپ مدد کر سکتا ہے۔
-
بیچ سائز ٹریڈ آف موجود ہیں۔ بڑے بیچز میلان کو مستحکم کرتے ہیں لیکن عام طور پر مختلف ہو سکتے ہیں۔
-
الجھن میں ہونے پر، پلاٹ کے نقصان کے منحنی خطوط اور وزن کے اصول ۔ آپ حیران ہوں گے کہ پلاٹوں میں کتنی بار جواب آتا ہے۔
-
دستاویزی مفروضات۔ مستقبل - آپ چیزوں کو بھول جاتے ہیں - تیز [1، 2]۔.
گہرے غوطے کا راستہ: ڈیٹا کا کردار، یا پھر بھی کوڑا کرکٹ کا مطلب کوڑا کرکٹ باہر کیوں جانا ہے 🗑️➡️✨
اعصابی نیٹ ورک جادوئی طور پر ناقص ڈیٹا کو ٹھیک نہیں کرتے ہیں۔ ترچھے لیبلز، تشریح کی غلطیاں، یا تنگ نمونے سبھی ماڈل کے ذریعے گونجیں گے۔ کیوریٹ، آڈٹ، اور اضافہ۔ اور اگر آپ کو یقین نہیں ہے کہ آپ کو مزید ڈیٹا کی ضرورت ہے یا کسی بہتر ماڈل کی، تو جواب اکثر پریشان کن حد تک آسان ہوتا ہے: دونوں - لیکن ڈیٹا کوالٹی کے ساتھ شروع کریں [1]۔.
"AI میں نیورل نیٹ ورک کیا ہے؟" - مختصر تعریفیں جو آپ دوبارہ استعمال کر سکتے ہیں 🧾
-
نیورل نیٹ ورک ایک تہہ دار فنکشن کا تخمینہ ہے جو گریڈینٹ سگنلز [1، 2] کا استعمال کرتے ہوئے وزن کو ایڈجسٹ کرکے پیچیدہ پیٹرن سیکھتا ہے۔.
-
یہ ایک ایسا نظام ہے جو لگاتار نان لائنر اقدامات کے ذریعے ان پٹ کو آؤٹ پٹ میں تبدیل کرتا ہے، نقصان کو کم کرنے کے لیے تربیت دی جاتی ہے [1]۔.
-
یہ ایک لچکدار، ڈیٹا بھوکا ماڈلنگ کا طریقہ ہے جو تصاویر، متن اور آڈیو جیسے غیر ساختہ ان پٹ پر پروان چڑھتا ہے [1, 2, 3]۔.
بہت لمبا، نہیں پڑھا اور حتمی ریمارکس 🎯
اگر کوئی آپ سے پوچھے کہ AI میں نیورل نیٹ ورک کیا ہے؟ یہ ہے ساؤنڈ بائٹ: ایک نیورل نیٹ ورک سادہ اکائیوں کا ایک ڈھیر ہے جو قدم بہ قدم ڈیٹا کو تبدیل کرتا ہے، نقصان کو کم سے کم کرکے تبدیلی کو سیکھتا ہے اور گریڈیئنٹس کی پیروی کرتا ہے۔ وہ طاقتور ہیں کیونکہ وہ پیمائش کرتے ہیں، خصوصیات خود بخود سیکھتے ہیں، اور بہت پیچیدہ افعال کی نمائندگی کر سکتے ہیں [1، 4]۔ اگر آپ ڈیٹا کے معیار، گورننس، یا نگرانی کو نظر انداز کرتے ہیں تو یہ خطرناک ہیں [5]۔ اور وہ جادو نہیں ہیں۔ صرف ریاضی، حساب، اور اچھی انجینئرنگ - ذائقہ کے ڈیش کے ساتھ۔
مزید پڑھنا، احتیاط سے اٹھایا گیا (غیر حوالہ جات)
-
سٹینفورڈ CS231n نوٹس - قابل رسائی اور عملی: https://cs231n.github.io/
-
DeepLearningBook.org - کیننیکل حوالہ: https://www.deeplearningbook.org/
-
NIST AI رسک مینجمنٹ فریم ورک - ذمہ دار AI رہنمائی: https://www.nist.gov/itl/ai-risk-management-framework
-
"توجہ صرف آپ کی ضرورت ہے" - ٹرانسفارمر پیپر: https://arxiv.org/abs/1706.03762
حوالہ جات
[1] Goodfellow, I., Bengio, Y., & Courville, A. Deep Learning . ایم آئی ٹی پریس۔ مفت آن لائن ورژن: مزید پڑھیں
[2] سٹینفورڈ CS231n. Convolutional Neural Networks for Visual Recognition (کورس کے نوٹ): مزید پڑھیں
[3] واسوانی، اے، شازیر، این، پرمار، این، وغیرہ۔ (2017)۔ توجہ صرف آپ کی ضرورت ہے ۔ نیور آئی پی ایس۔ arXiv: مزید پڑھیں
[4] سائبینکو، جی (1989)۔ سگمائیڈل فنکشن کے سپرپوزیشنز کے ذریعہ قریب قریب ۔ کنٹرول، سگنلز اور سسٹمز کی ریاضی ، 2، 303–314۔ اسپرنگر: مزید پڑھیں
[5] NIST. AI رسک مینجمنٹ فریم ورک (AI RMF) : مزید پڑھیں