<04> BACK-PROPAGATION & AUTOGRAD
TESKARI HISOBLASH PYTORCHDA
Last updated
TESKARI HISOBLASH PYTORCHDA
Last updated
ESLATMA: Ushbu darsligimizdagi matematik hisob kitoblar sizga biroz qiyinlik qilsa, havotirlanishga o'rin yo'q. Shunchaki siz ma'nosini tushunishga va PyTorch kutubxonasidan qanday foydalanishni puxta egallashingiz yetarlicha bo'ladi.
Video darsligimizda ta'kidlaganimizdek, w eng optimal qiymatini topish orqali biz model xatoligi (loss)ni minimal darajaga tushurishimiz bu DL va ML ning eng asosiy va ajralmas qismi hisolanadi. Backpropagation ning asosiy maqsadi, w ning qiymatini yangilash uchun loss dan w gacha oraliqda teskari tarzda zanjir qoidasi yordamida hisoblashni amalga oshirish. Backpropagation dan olingan natija esa, navbatida, gradient descent algortimida w ning qiymatini yangilashda foyadaliniladi.
O'tgan darslarimizda sizlar bilan qo'lda(manual) va avtomatik(automatic) hisoblashni ko'rgan edik, bu gal esa avtomatik hisoblashni to'liq pytorch orqali ko'rib chiqdik.
x=2, y=4 hamda w ning taxminiy qiymati 1 ga tenga bo'lganda, computational graph ko'rinishidagi hisoblash qanday bo'ladi.