در این مطلب، ویدئو یادگیری عمیق با پایتون: مقدمه ای بر Keras و TensorFlow (فصل 3) با زیرنویس فارسی را برای دانلود قرار داده ام. شما میتوانید با پرداخت 15 هزار تومان ، این ویدیو به علاوه تمامی فیلم های سایت را دانلود کنید.اکثر فیلم های سایت به زبان انگلیسی می باشند. این ویدئو دارای زیرنویس فارسی ترجمه شده توسط هوش مصنوعی می باشد که میتوانید نمونه ای از آن را در قسمت پایانی این مطلب مشاهده کنید.
مدت زمان فیلم: 1:00:13
تصاویر این ویدئو:
قسمتی از زیرنویس این فیلم:
00:00:00,080 –> 00:00:02,399
سلام، سلام به همه
2
00:00:02,399 –> 00:00:04,560
، امروز همانطور که روزانا گفت، نام من دیمیتریس است
3
00:00:04,560 –> 00:00:06,319
، ما
4
00:00:06,319 –> 00:00:08,000
فصل سوم یادگیری عمیق با
5
00:00:08,000 –> 00:00:09,599
پایتون را مرور خواهیم کرد
6
00:00:09,599 –> 00:00:12,719
و بیایید
7
00:00:12,719 –> 00:00:14,960
عنوان و
8
00:00:14,960 –> 00:00:16,720
آنچه امروز خواهیم دید را ببینیم.
9
00:00:16,720 –> 00:00:19,920
10
00:00:19,920 –> 00:00:23,039
11
00:00:23,039 –> 00:00:23,840
12
00:00:23,840 –> 00:00:26,640
نگاهی دقیقتر به
13
00:00:26,640 –> 00:00:28,800
دورههای تنسورفلو بیندازیم و رابطه
14
00:00:28,800 –> 00:00:31,279
بین این دو چگونه خواهد بود، همچنین خواهیم دید که چگونه
15
00:00:31,279 –> 00:00:34,079
میتوانیم یک فضای کاری یادگیری عمیق راهاندازی
16
00:00:34,079 –> 00:00:35,760
کنیم در صورتی که قبلاً
17
00:00:35,760 –> 00:00:38,960
فضای کاری شما را نداریم و امروز
18
00:00:38,960 –> 00:00:41,760
برخی از مفاهیم اصلی را مرور خواهیم کرد. از
19
00:00:41,760 –> 00:00:44,000
tensorflow و به ما بگویید که چگونه چهار
20
00:00:44,000 –> 00:00:46,239
مفهوم یادگیری عمیق به
21
00:00:46,239 –> 00:00:49,760
اشیاء خاصی ترجمه می شود وقتی که ما جریان ذاتی را قرار می دهیم،
22
00:00:49,760 –> 00:00:52,000
23
00:00:52,000 –> 00:00:54,800
بنابراین بیایید ابتدا با tensorflow شروع کنیم
24
00:00:54,800 –> 00:00:56,320
آنچه که حالت های قانون
25
00:00:56,320 –> 00:00:59,120
جریان پتانسیل است یک پلت فرم
26
00:00:59,120 –> 00:01:02,160
یادگیری ماشین منبع باز و رایگان مبتنی بر پایتون است
27
00:01:02,160 –> 00:01:03,520
28
00:01:03,520 –> 00:01:05,280
29
00:01:05,280 –> 00:01:06,880
بنابراین توسعه یافته است.
30
00:01:06,880 –> 00:01:08,799
در درجه اول توسط گوگل،
31
00:01:08,799 –> 00:01:10,880
اگرچه امروزه
32
00:01:10,880 –> 00:01:12,880
بسیاری از اشخاص ثالث هستند و بسیاری از آنها یک
33
00:01:12,880 –> 00:01:14,720
جامعه بزرگ هستند
34
00:01:14,720 –> 00:01:16,240
که به
35
00:01:16,240 –> 00:01:17,920
پیشرفت های دیگر کمک می کنند
36
00:01:17,920 –> 00:01:20,560
، چیز خوبی که می گوییم tensorflow این است که
37
00:01:20,560 –> 00:01:22,400
نکته مهم این است که می تواند
38
00:01:22,400 –> 00:01:24,960
39
00:01:24,960 –> 00:01:27,439
گرادیان هر عبارت قابل تفکیک را به طور خودکار محاسبه کند و
40
00:01:27,439 –> 00:01:29,200
در فصل قبل دیدیم که این
41
00:01:29,200 –> 00:01:31,680
در هسته یادگیری عمیق است زیرا ما از
42
00:01:31,680 –> 00:01:34,400
این برای انتشار برگشتی و سریع
43
00:01:34,400 –> 00:01:37,119
برای آموزش برای فرآیند یادگیری
44
00:01:37,119 –> 00:01:38,400
و
45
00:01:38,400 –> 00:01:40,320
یک چیز مهم دیگر استفاده می کنیم. این است که می تواند
46
00:01:40,320 –> 00:01:42,640
بر روی سخت افزارهای مختلف اجرا شود، به
47
00:01:42,640 –> 00:01:45,439
عنوان مثال، معماری های مختلف cpu
48
00:01:45,439 –> 00:01:48,240
gpu tpu و باز هم این بسیار مهم است
49
00:01:48,240 –> 00:01:50,720
زیرا به همین دلیل می توانیم
50
00:01:50,720 –> 00:01:52,960
آزمایش های بزرگتر و مدل های عمیق تری را اجرا
51
00:01:52,960 –> 00:01:54,560
52
00:01:54,560 –> 00:01:57,119
کنیم تا نتایج بهتری داشته باشیم،
53
00:01:57,119 –> 00:01:59,600
همچنین محاسبات می توانند
54
00:01:59,600 –> 00:02:02,479
در بسیاری از ماشین ها توزیع شوند، بنابراین ما می توانیم امروزه
55
00:02:02,479 –> 00:02:04,320
میتواند مجموعهای از هزاران
56
00:02:04,320 –> 00:02:07,520
ماشین را داشته باشد و tensorflow
57
00:02:07,520 –> 00:02:10,000
میتواند جریان اطلاعات بین همه
58
00:02:10,000 –> 00:02:11,200
این ماشینها
59
00:02:11,200 –> 00:02:13,760
را در طول آموزش یا استنتاج کنترل کند
60
00:02:13,760 –> 00:02:14,959
61
00:02:14,959 –> 00:02:16,239
و آخرین چیزی که در مورد tensorflow میخواهم به آن اشاره
62
00:02:16,239 –> 00:02:18,400
کنم این است که
63
00:02:18,400 –> 00:02:20,000
فقط پایتون را که البته زبان اصلی است، پشتیبانی نمیکند.
64
00:02:20,000 –> 00:02:22,640
اما علاوه بر اضافهای
65
00:02:22,640 –> 00:02:25,680
که میتوانید در جاوا اسکریپت استفاده کنید،
66
00:02:25,680 –> 00:02:29,280
میتوانید در صورت تمایل از tensorflow lite استفاده کنید
67
00:02:29,280 –> 00:02:32,319
چیزی را روی دستگاههای لبهای و فونتها روی معماریهای مختلف اجرا کنید،
68
00:02:32,319 –> 00:02:34,560
69
00:02:34,800 –> 00:02:37,920
70
00:02:37,920 –> 00:02:39,840
بنابراین در واقع تنسورفلو
71
00:02:39,840 –> 00:02:42,480
نه تنها یک کتابخانه است، بلکه بیشتر یک
72
00:02:42,480 –> 00:02:44,800
پلتفرم است، بلکه یک اکوسیستم وسیع از
73
00:02:44,800 –> 00:02:46,080
اجزای مختلف است
74
00:02:46,080 –> 00:02:48,400
و اگرچه در این کتاب
75
00:02:48,400 –> 00:02:50,560
فقط به بخشهای کتابخانه میپردازیم،
76
00:02:50,560 –> 00:02:52,000
چیزهای زیادی وجود دارد. اگر به یادگیری تقویتی علاقه مند هستید، می توانید آن را کاوش کنید، به
77
00:02:52,000 –> 00:02:54,560
عنوان مثال،
78
00:02:54,560 –> 00:02:56,720
اگر به یادگیری تقویتی علاقه دارید
79
00:02:56,720 –> 00:02:59,040
، یک tfx وجود دارد،
80
00:02:59,040 –> 00:03:02,239
اگر می خواهید گردش کار ml خود را مدیریت کنید،
81
00:03:02,239 –> 00:03:04,640
بهتر
82
00:03:04,640 –> 00:03:06,879
است در صورتی که
83
00:03:06,879 –> 00:03:07,920
می خواهید
84
00:03:07,920 –> 00:03:10,000
مدل های خود را به استقرار مدل های آموزش دیده خود منتقل کنید، دوباره سرویس دهی می کند.
85
00:03:10,000 –> 00:03:12,080
تولید
86
00:03:12,080 –> 00:03:15,519
و چیزهای دیگر مانند هاب تنسورفلو
87
00:03:15,519 –> 00:03:17,680
که در آن می توانید مدل های مدل های از پیش آموزش دیده را پیدا کنید
88
00:03:17,680 –> 00:03:18,720
89
00:03:18,720 –> 00:03:21,200
که می توانید از آنها فقط به عنوان نقطه شروع
90
00:03:21,200 –> 00:03:22,800
برای برنامه خود استفاده کنید،
91
00:03:22,800 –> 00:03:24,480
بنابراین چیزهای زیادی
92
00:03:24,480 –> 00:03:27,519
دوباره در این کتاب وجود دارد که ما فقط بر روی کتابخانه تمرکز خواهیم کرد
93
00:03:27,519 –> 00:03:30,080
،
94
00:03:30,080 –> 00:03:32,000
بنابراین این کم و بیش یک مقدمه بسیار کوتاه
95
00:03:32,000 –> 00:03:34,319
در مورد اینکه تنسورفلو چیست، بیایید ببینیم کراس
96
00:03:34,319 –> 00:03:37,040
اکنون
97
00:03:37,040 –> 00:03:39,840
چیست، بنابراین کراس در بالای تنسورفلو قرار می گیرد، بنابراین
98
00:03:39,840 –> 00:03:41,920
در اینجا می توانید شکلی را ببینید
99
00:03:41,920 –> 00:03:44,000
قسمت پایین شما سخت افزار را دارید همانطور که
100
00:03:44,000 –> 00:03:46,480
قبلاً ذکر کردم می تواند cpu gpu یا
101
00:03:46,480 –> 00:03:47,440
tpu باشد
102
00:03:47,440 –> 00:03:49,360
و سپس tensorflow در بالای
103
00:03:49,360 –> 00:03:52,319
آن دارید بنابراین tensorflow
104
00:03:52,319 –> 00:03:55,840
با تمام موارد سطح پایین
105
00:03:55,840 –> 00:03:58,239
مانند تانسورها ، متغیرها
106
00:03:58,239 –> 00:04:00,879
، عملیات تانسور ،
107
00:04:00,879 –> 00:04:03,760
تمایز خودکار که ما یک
108
00:04:03,760 –> 00:04:05,519
استراتژی توزیع دیدیم در صورتی که
109
00:04:05,519 –> 00:04:07,120
چندین ماشین دارید،
110
00:04:07,120 –> 00:04:08,720
بنابراین همه
111
00:04:08,720 –> 00:04:10,799
اینها توسط تنسورفلو مدیریت می شوند و سپس کراس
112
00:04:10,799 –> 00:04:13,280
در بالای آن دارید که
113
00:04:13,280 –> 00:04:15,599
به چیزهایی می پردازد که
114
00:04:15,599 –> 00:04:17,600
برای مهندس یادگیری عمیق مفیدتر است،
115
00:04:17,600 –> 00:04:20,959
116
00:04:20,959 –> 00:04:23,280
مثلاً لایه ها یا مدل چگونه
117
00:04:23,280 –> 00:04:24,720
118
00:04:24,720 –> 00:04:26,720
نمودار مدل خود را تعریف می کنید و چگونه می توانید
119
00:04:26,720 –> 00:04:28,800
تعیین کنید که
120
00:04:28,800 –> 00:04:30,960
اگر معیارهای سفارشی می خواهید از کدام بهینه ساز استفاده کنید،
121
00:04:30,960 –> 00:04:33,360
بنابراین همه اینها مؤلفه های
122
00:04:33,360 –> 00:04:35,199
سطح بالایی
123
00:04:35,199 –> 00:04:38,240
هستند که keras با این
124
00:04:38,240 –> 00:04:41,120
Securos در یک جمله سروکار دارد.
125
00:04:41,120 –> 00:04:43,520
Api یادگیری عمیق برای پایتون
126
00:04:43,520 –> 00:04:46,320
ساخته شده بر روی
127
00:04:46,320 –> 00:04:48,240
tensorflow نکته خوب با keras این است که
128
00:04:48,240 –> 00:04:49,600
129
00:04:49,600 –> 00:04:50,960
تعریف
130
00:04:50,960 –> 00:04:53,759
مدلها برای تعریف لایهها راحت است و پلاگین
131
00:04:53,759 –> 00:04:58,000
و پخش آن بسیار مناسب است. easy api
132
00:04:58,000 –> 00:04:59,280
133
00:04:59,280 –> 00:05:01,360
و نحوه تعامل شما با آن
134
00:05:01,360 –> 00:05:04,320
یادگیری بسیار آسان است، بنابراین برای من
135
00:05:04,320 –> 00:05:06,960
خوب بود که اولین
136
00:05:06,960 –> 00:05:09,039
فریم ورکی نبود که یاد گرفتم اما در
137
00:05:09,039 –> 00:05:10,800
واقع مورد علاقه من است، فکر می کنم
138
00:05:10,800 –> 00:05:12,960
استفاده از آن برای مبتدیان بسیار آسان است
139
00:05:12,960 –> 00:05:15,280
و همچنین بسیار کارآمد حتی برای
140
00:05:15,280 –> 00:05:16,639
کاربران متخصص،
141
00:05:16,639 –> 00:05:18,160
اوه، تعریف آزمایش های خود بسیار آسان است،
142
00:05:18,160 –> 00:05:21,360
فقط با چند خط کد
143
00:05:21,360 –> 00:05:25,120
، بیش از 1 میلیون کاربر به عنوان ناوگان
144
00:05:25,120 –> 00:05:27,759
2021 دارد
145
00:05:27,759 –> 00:05:30,639
و کاربران از دانشگاه ها متفاوت هستند، بنابراین
146
00:05:30,639 –> 00:05:32,240
شما محققان دانشگاهی دارید،
147
00:05:32,240 –> 00:05:34,400
مهندسین در صنعت دارید، داده هایی دارید.
148
00:05:34,400 –> 00:05:36,639
149
00:05:36,639 –> 00:05:38,960
شرکتهای دانشمندان در این کتاب میتوانید نظراتی را ببینید
150
00:05:38,960 –> 00:05:41,199
که میگویند از keras و tensorflow استفاده کنید،
151
00:05:41,199 –> 00:05:43,680
مانند سازمانهای google netflix
152
00:05:43,680 –> 00:05:47,600
uber مانند cern یا nasa
153
00:05:47,600 –> 00:05:49,199
و البته شرکتهایی دارید،
154
00:05:49,199 –> 00:05:51,120
منظور صدها استارتآپ
155
00:05:51,120 –> 00:05:53,039
و شرکت بزرگتر است،
156
00:05:53,039 –> 00:05:55,280
بنابراین ما را دریافت کنید
157
00:05:55,280 –> 00:05:56,479
158
00:05:56,479 –> 00:05:58,400
، حالا ببینیم چیست؟ رابطه
159
00:05:58,400 –> 00:06:00,479
بین keras را دیدیم که جریان تنش
160
00:06:00,479 –> 00:06:02,800
چیست، دیدیم کراس چیست و اکنون بیایید
161
00:06:02,800 –> 00:06:05,680
تاریخچه مختصر بین keras و
162
00:06:05,680 –> 00:06:08,000
tensorflow را ببینیم،
163
00:06:08,000 –> 00:06:11,759
بنابراین از سال 2015 و در واقع شروع شد.
164
00:06:11,759 –> 00:06:13,759
عجیب است زیرا ما گفتیم که keras
165
00:06:13,759 –> 00:06:15,600
در بالای تنسورفلو ساخته شده است، اما
166
00:06:15,600 –> 00:06:18,160
در واقع keras از 8 ماه قبل از تنسورفلو ساخته شده است،
167
00:06:18,160 –> 00:06:20,560
بنابراین می توانید بپرسید که چگونه
168
00:06:20,560 –> 00:06:22,479
قهرمانان ممکن است
169
00:06:22,479 –> 00:06:25,039
ابتدا به عنوان یک سطح بالاتر به عنوان یک
170
00:06:25,039 –> 00:06:26,639
سطح بالاتر
171
00:06:26,639 –> 00:06:29,680
برای theano شروع شوند، بنابراین یکی از اولین ها بود
172
00:06:29,680 –> 00:06:32,560
اگر اولین
173
00:06:32,560 –> 00:06:34,400
فریمورک برای یادگیری عمیق نیست،
174
00:06:34,400 –> 00:06:36,639
فکر میکنم در مونترال توسعه داده شد
175
00:06:36,639 –> 00:06:37,919
176
00:06:37,919 –> 00:06:39,280
و این
177
00:06:39,280 –> 00:06:41,039
ویژگیهای اصلی را داشت که قبلاً ذکر
178
00:06:41,039 –> 00:06:42,319
کردم، مانند تمایز خودکار
179
00:06:42,319 –> 00:06:44,720
و هم روی
180
00:06:44,720 –> 00:06:46,720
cpu و هم روی نمایش اجرا میشد،
181
00:06:46,720 –> 00:06:47,600
بنابراین
182
00:06:47,600 –> 00:06:50,479
keros به منظور پشتیبانی از
183
00:06:50,479 –> 00:06:54,160
sienna و سپس زمانی که tensorflow ساخته شد ساخته شد.
184
00:06:54,160 –> 00:06:58,319
در اواخر سال 2015 منتشر شد، کیرا نیز شروع به
185
00:06:58,319 –> 00:07:03,039
پشتیبانی کرد و هر دوی آنها
186
00:07:03,440 –> 00:07:06,240
سال بعد وارد میشوند، بنابراین بعد از
187
00:07:06,240 –> 00:07:09,759
سال 2017 ما
188
00:07:09,759 –> 00:07:11,919
بکاندهای بیشتری داشتیم که توسط کراسهایی مانند cndk از
189
00:07:11,919 –> 00:07:16,319
مایکروسافت یا mxnet از آمازون پشتیبانی میشدند،
190
00:07:16,319 –> 00:07:18,000
اما مسئله این است که
191
00:07:18,000 –> 00:07:20,160
همینطور است. امسال
192
00:07:20,160 –> 00:07:21,520
193
00:07:21,520 –> 00:07:23,360
فریمورک های زیادی برای یادگیری عمیق وجود داشت،
194
00:07:23,360 –> 00:07:26,319
اما بعد شروع به تثبیت کرد،
195
00:07:26,319 –> 00:07:28,720
بنابراین اکنون سندیکا
196
00:07:28,720 –> 00:07:32,319
دیگر توسعه نمی یابد، فکر می کنم mxnet بیشتر است برای
197
00:07:32,319 –> 00:07:34,800
استفاده داخلی theano پشتیبانی
198
00:07:34,800 –> 00:07:37,360
نمیشود دیگر توسعه نمییابد، بنابراین
199
00:07:37,360 –> 00:07:39,520
در حال حاضر برای رئیسجمهور
200
00:07:39,520 –> 00:07:42,639
uh keras فقط از یک tensorflow پشتیبانی میکند و
201
00:07:42,639 –> 00:07:45,759
در واقع در سال 2018 keras آنقدر
202
00:07:45,759 –> 00:07:47,280
محبوب است
203
00:07:47,280 –> 00:07:49,440
که keros به api رسمی سطح بالای تنسورفلو تبدیل میشود،
204
00:07:49,440 –> 00:07:52,319
205
00:07:52,319 –> 00:07:54,080
زیرا آنها متوجه شدند که در واقع
206
00:07:54,080 –> 00:07:56,840
اکثر کاربران tensorflow از آن با keras استفاده کنید
207
00:07:56,840 –> 00:08:00,160
و قدم بزرگ برای keros در
208
00:08:00,160 –> 00:08:03,840
سال 2019 بود که اولین
209
00:08:03,840 –> 00:08:06,879
نسخه جدید tensorflow 2.0 را داشتیم
210
00:08:06,879 –> 00:08:09,599
و از دو نقطه یک و پس از آن
211
00:08:09,599 –> 00:08:11,680
keras قبلاً در tensorflow یکپارچه شده است
212
00:08:11,680 –> 00:08:13,280
بنابراین نیازی به نصب
213
00:08:13,280 –> 00:08:17,039
keras tera keras با آن نیست. تنسورفلو،
214
00:08:17,039 –> 00:08:20,000
بنابراین این یک تاریخچه بسیار مختصر بین
215
00:08:20,000 –> 00:08:21,360
تنسورفلو است،
216
00:08:21,360 –> 00:08:23,039
البته می توانید جزئیات بیشتری را
217
00:08:23,039 –> 00:08:24,639
در کتاب
218
00:08:24,639 –> 00:08:27,520
بیابید، بنابراین حالا که دیدیم
219
00:08:27,520 –> 00:08:29,280
تنسورفلو کم و بیش چیست و کراس های کم و بیش
220
00:08:29,280 –> 00:08:31,759
چیست، بیایید ببینیم چگونه می توانید از آنها استفاده کنید
221
00:08:31,759 –> 00:08:34,399
تا چگونه می توانید
222
00:08:34,399 –> 00:08:35,599
223
00:08:35,599 –> 00:08:37,360
در صورتی که
224
00:08:37,360 –> 00:08:39,279
قبلاً یک
225
00:08:39,279 –> 00:08:40,640
فضای
226
00:08:40,640 –> 00:08:42,640
کاری ندارید، مجدداً فضای کاری برنامه ریزی شناسه خود را تنظیم کنید، کم و بیش دو توصیه اول از
227
00:08:42,640 –> 00:08:46,320
همه از cpu به جای cpu استفاده کنید در صورت
228
00:08:46,320 –> 00:08:50,080
امکان بسیار سریعتر است. وقتی همان چیزی را اجرا میکنید، میتواند پنج تا ده
229
00:08:50,080 –> 00:08:52,800
برابر سریعتر باشد،
230
00:08:52,800 –> 00:08:55,920
مخصوصاً آموزش روی cpu،
231
00:08:55,920 –> 00:08:58,640
در برخی موارد حتی بیشتر، و
232
00:08:58,640 –> 00:09:01,360
گزینههای مختلفی برای gpu وجود دارد، اول از همه
233
00:09:01,360 –> 00:09:03,360
اگر آن را دارید، اگر ندارید،
234
00:09:03,360 –> 00:09:05,519
میتوانید یکی را بخرید
235
00:09:05,519 –> 00:09:08,480
. که اکنون قیمت این روزها
236
00:09:08,480 –> 00:09:10,080
237
00:09:10,080 –> 00:09:13,519
افزایش یافته است، می توانید یک خوب
238
00:09:13,519 –> 00:09:16,560
برای 1.5 یا 2000
239
00:09:16,560 –> 00:09:17,680
دلار پیدا کنید،
240
00:09:17,680 –> 00:09:19,040
241
00:09:19,040 –> 00:09:21,120
شاید راه حل اولیه اجاره یکی باشد، بنابراین
242
00:09:21,120 –> 00:09:23,200
گزینه های زیادی وجود دارد، به
243
00:09:23,200 –> 00:09:25,760
عنوان مثال aws یا Google cloud یا paper
244
00:09:25,760 –> 00:09:27,680
space برخی از آنها وجود دارد.
245
00:09:27,680 –> 00:09:29,440
246
00:09:29,440 –> 00:09:32,160
اگر می خواهید
247
00:09:32,160 –> 00:09:35,120
آزمایشی را برای چند ساعت انجام دهید، قیمت های بسیار بیشتری وجود دارد، اگر می خواهید آزمایشی را برای چند ساعت اجرا کنید،
248
00:09:35,120 –> 00:09:37,279
و گزینه ای وجود دارد که از یک آزمایش رایگان استفاده
249
00:09:37,279 –> 00:09:39,920
کنید که گزینه بسیار خوبی است،
250
00:09:39,920 –> 00:09:41,600
ما خوش شانس هستیم که آن را داریم در واقع من
251
00:09:41,600 –> 00:09:43,040
بسیار خوش شانس بودم
252
00:09:43,040 –> 00:09:45,040
در سال گذشته، چون من واقعاً از
253
00:09:45,040 –> 00:09:47,200
Google collab استفاده کردم، امروز شاهد فراخوانی گوگل خواهیم بود
254
00:09:47,200 –> 00:09:48,720
255
00:09:48,720 –> 00:09:50,800
و گرادیان فضای کاغذی
256
00:09:50,800 –> 00:09:53,360
وجود دارد، بنابراین گزینههای رایگانی وجود دارد که آنها
257
00:09:53,360 –> 00:09:56,080
gpus را ارائه میکنند که میتوانید آزمایشهای یادگیری عمیق خود را
258
00:09:56,080 –> 00:09:58,480
259
00:09:58,480 –> 00:10:02,240
اکنون در مورد سیستم عامل
260
00:10:02,320 –> 00:10:06,800
آن اجرا کنید. ترجیحاً از یونیکس استفاده کنید، بنابراین
261
00:10:06,800 –> 00:10:08,800
لینوکس
262
00:10:08,800 –> 00:10:10,800
میتوانید از ویندوز استفاده کنید و بگویید که
263
00:10:10,800 –> 00:10:13,440
اجرا نمیشود، تنسورفلو از ویندوز و کراس پشتیبانی میکند،
264
00:10:13,440 –> 00:10:15,360
265
00:10:15,360 –> 00:10:16,560
266
00:10:16,560 –> 00:10:17,680
اما نویسنده
267
00:10:17,680 –> 00:10:20,160
و سازنده
268
00:10:20,160 –> 00:10:22,800
keras ترجیح میدهند از یونیکس استفاده کنند، زیرا
269
00:10:22,800 –> 00:10:24,640
گاهی اوقات برخی از مشکلات اتصال وجود دارد.
270
00:10:24,640 –> 00:10:25,760
271
00:10:25,760 –> 00:10:28,560
272
00:10:28,560 –> 00:10:30,839
273
00:10:30,839 –> 00:10:34,240
با اتصال بین gpu
274
00:10:34,240 –> 00:10:36,480
و tensorflow
275
00:10:36,480 –> 00:10:37,360
بنابراین
276
00:10:37,360 –> 00:10:39,760
، من در مورد مک مطمئن نیستم که آیا آنها حتی
277
00:10:39,760 –> 00:10:42,399
باید اینطور باشند،
278
00:10:42,399 –> 00:10:44,480
این نحوه
279
00:10:44,480 –> 00:10:47,440
تنظیم گزینه های کم و بیش متفاوت
280
00:10:47,440 –> 00:10:49,519
برای gpu شما است،
281
00:10:49,519 –> 00:10:53,600
اکنون خواهیم دید که چگونه کد را اجرا کنیم. بنابراین
282
00:10:53,600 –> 00:10:55,839
دوباره بر اساس کتاب، روش ترجیحی
283
00:10:55,839 –> 00:10:57,200
برای اجرای آزمایشهای یادگیری عمیق
284
00:10:57,200 –> 00:11:00,560
، نوتبوکهای مشتری است،
285
00:11:00,560 –> 00:11:02,079
در صورتی که آشنا نباشید، میبینیم
286
00:11:02,079 –> 00:11:04,640
که این دو نوتبوک امروزی چه هستند،
287
00:11:04,640 –> 00:11:06,480
بنابراین کم و بیش راهی برای ویرایش
288
00:11:06,480 –> 00:11:08,480
کدهای خود در مرورگر شما
289
00:11:08,480 –> 00:11:10,640
معمولاً زمانی است که شما کد خود را ویرایش می کنید،
290
00:11:10,640 –> 00:11:13,040
یک شناسه و محیطی دارید مانند I don’t know
291
00:11:13,040 –> 00:11:14,880
pytharm یا ps code یا چیزی شبیه به
292
00:11:14,880 –> 00:11:15,680
این،
293
00:11:15,680 –> 00:11:17,279
جایی
294
00:11:17,279 –> 00:11:19,600
که شما پایه کد خود را دارید، در صورتی که چیزی شبیه به این ندارید، کدی را
295
00:11:19,600 –> 00:11:21,279
که اشکال زدایی می کنید و غیره را تغییر می دهید.
296
00:11:21,279 –> 00:11:22,480
297
00:11:22,480 –> 00:11:24,240
می توانید از
298
00:11:24,240 –> 00:11:27,120
مرورگر خود فقط از کروم یا سافاری یا
299
00:11:27,120 –> 00:11:28,480
هر فایرفاکس دیگری استفاده
300
00:11:28,480 –> 00:11:29,760
301
00:11:29,760 –> 00:11:32,160
کنید و شخصاً بسیار مفید
302
00:11:32,160 –> 00:11:34,959
است، من هم از آن بسیار استفاده می کنم هم از
303
00:11:34,959 –> 00:11:37,360
این و هم از
304
00:11:37,360 –> 00:11:40,240
کدهایی که می توانید متن علامت گذاری را برای حاشیه نویسی
305
00:11:40,240 –> 00:11:42,800
یا نظراتی که نمی توانید کدنویسی کنید اضافه کنید و می توانید
306
00:11:42,800 –> 00:11:45,279
آنها را تعویض کنید و خوبی آن این است
307
00:11:45,279 –> 00:11:47,600
که می توانید بسیاری از کدها را به
308
00:11:47,600 –> 00:11:48,959
طور مستقل
309
00:11:48,959 –> 00:11:51,600
اجرا می کند و وضعیت فعلی را به صورت اصلی حفظ می کند،
310
00:11:51,600 –> 00:11:53,440
بنابراین این تفاوت بزرگی
311
00:11:53,440 –> 00:11:56,399
بین این و اسکریپت نویسی است
312
00:11:56,399 –> 00:11:58,240
وقتی یک اسکریپت کد را در پایتون می نویسید،
313
00:11:58,240 –> 00:12:00,880
باید کل آن را دوباره اجرا کنید،
314
00:12:00,880 –> 00:12:02,399
بنابراین اگر می خواهید چیزی را تغییر دهید یا
315
00:12:02,399 –> 00:12:04,399
بگویید. چیزی را بررسی کنید که باید
316
00:12:04,399 –> 00:12:05,920
تغییر را ایجاد کنید و دوباره اجرا کنید، بنابراین برای
317
00:12:05,920 –> 00:12:08,399
پروژه های یادگیری عمیق ممکن است زمان زیادی
318
00:12:08,399 –> 00:12:10,720
برای اجرای یک اسکریپت طول
319
00:12:10,720 –> 00:12:13,440
بکشد.
320
00:12:13,440 –> 00:12:15,279
321
00:12:15,279 –> 00:12:16,959
322
00:12:16,959 –> 00:12:18,399
323
00:12:18,399 –> 00:12:21,839
خودتان
324
00:12:22,839 –> 00:12:26,240
و همکاری کنید، بنابراین من قبلاً
325
00:12:26,240 –> 00:12:29,040
وقتی در مورد گزینه های gpu رایگان صحبت کردم به تماس تلفنی اشاره کردم
326
00:12:29,040 –> 00:12:33,279
و collod در واقع یک gpu رایگان با یک
327
00:12:33,279 –> 00:12:35,120
نوت بوک jupyter است، بنابراین گذاشتن یادداشت رایگان است.
328
00:12:35,120 –> 00:12:37,440
کتاب سرویس آنلاین نیازی
329
00:12:37,440 –> 00:12:39,920
به نصب چیزی ندارید و فقط روی این لینک کلیک کنید،
330
00:12:39,920 –> 00:12:44,040
بنابراین
331
00:12:44,800 –> 00:12:46,959
collab.research.google.com به طور کامل در فضای ابری اجرا می شود، بنابراین
332
00:12:46,959 –> 00:12:49,200
نیازی به داشتن tpu نیست که حتی
333
00:12:49,200 –> 00:12:52,880
لازم نیست داشته باشید. یک کامپیوتر سریع فقط
334
00:12:52,880 –> 00:12:54,560
یک
335
00:12:54,560 –> 00:12:56,800
مرورگر رایگان است و زمان اجرای gpu و tpu را پشتیبانی می کند و
336
00:12:56,800 –> 00:12:59,920
کاملاً محدود است
337
00:12:59,920 –> 00:13:01,680
البته منظورم این است که اول از همه کارت gpu
338
00:13:01,680 –> 00:13:02,800
339
00:13:02,800 –> 00:13:03,680
سطح بالایی
340
00:13:03,680 –> 00:13:04,720
ندارد
341
00:13:04,720 –> 00:13:07,279
و شما نمی توانید برای همیشه یک آزمایش را اجرا کنید به
342
00:13:07,279 –> 00:13:09,360
این معنی که اکنون محدودیت های زمانی وجود دارد
343
00:13:09,360 –> 00:13:11,040
. ببینید این واقعاً چه
344
00:13:11,040 –> 00:13:13,600
شکلی است زیرا بسیار جالب است،
345
00:13:13,600 –> 00:13:15,680
بنابراین اگر روی آن پیوند کلیک
346
00:13:15,680 –> 00:13:17,760
کنید به چیزی شبیه به این می رسید، بنابراین در اینجا
347
00:13:17,760 –> 00:13:19,760
می توانید
348
00:13:19,760 –> 00:13:22,160
نمونه های مختلفی از نوت بوک های اخیر خود را ببینید
349
00:13:22,160 –> 00:13:24,079
که از تمام آنچه می توانید در نوت بوک خود تعریف کرده اید استفاده کرده اید،
350
00:13:24,079 –> 00:13:26,000
پس بیایید ببینیم چگونه
351
00:13:26,000 –> 00:13:28,240
می توانیم یک نوت بوک جدید راه اندازی کنیم،
352
00:13:28,240 –> 00:13:30,560
اینجا کلیک کنید و سپس شروع به
353
00:13:30,560 –> 00:13:34,639
تنظیم اولیه نوت بوک جدید می کند،
354
00:13:34,639 –> 00:13:36,720
بنابراین هر چیزی که اینجا می بینید فقط
355
00:13:36,720 –> 00:13:39,040
در مرورگر است، من اکنون چیزی را در
356
00:13:39,040 –> 00:13:39,920
این محیط
357
00:13:39,920 –> 00:13:41,279
[Music]
358
00:13:41,279 –> 00:13:42,720
روی کامپیوترم اجرا نمی کنم،
359
00:13:42,720 –> 00:13:44,399
بنابراین در اینجا می توانید ببینید هفتم در این
360
00:13:44,399 –> 00:13:47,040
چیزی وجود دارد که این سلولها
361
00:13:47,040 –> 00:13:50,079
بلوکهایی از کد یا
362
00:13:50,079 –> 00:13:52,160
متن هستند، بنابراین میتوانید ببینید که میتوانید
363
00:13:52,160 –> 00:13:55,839
سلولهای کد یا سلولهای متنی بیشتری اضافه
364
00:13:55,839 –> 00:13:57,519
کنید، میتوانید آنها را تغییر دهید، برای مثال میتوانید
365
00:13:57,519 –> 00:13:59,600
آن را بنویسید فرض کنید علامتگذاری شده است، بنابراین میتوانید
366
00:13:59,600 –> 00:14:01,279
بنویسید i don’ بدونید این را
367
00:14:01,279 –> 00:14:03,839
بسازید
368
00:14:04,160 –> 00:14:05,279
369
00:14:05,279 –> 00:14:07,279
و در اینجا می توانید کد را اجرا کنید تا
370
00:14:07,279 –> 00:14:08,720
بتوانید چیزی
371
00:14:08,720 –> 00:14:12,560
شبیه به گره 3 4 بنویسید و می توانید اینجا را کلیک کنید اجرا کنید
372
00:14:12,560 –> 00:14:16,240
یا می توانید اینتر را تغییر دهید و آن را اجرا کنید
373
00:14:16,240 –> 00:14:19,040
بنابراین ما منتظر می مانیم تا متصل شود یک
374
00:14:19,040 –> 00:14:21,279
چیز مهم دیگر این است که می توانید تغییر دهید
375
00:14:21,279 –> 00:14:23,519
زمان اجرا، بنابراین اگر به سراغ
376
00:14:23,519 –> 00:14:25,120
تغییر زمان اجرا
377
00:14:25,120 –> 00:14:28,160
می روید، می توانید بین اجرا در cpu یا
378
00:14:28,160 –> 00:14:31,120
شتاب با tb tpu خود را انتخاب کنید، اگر
379
00:14:31,120 –> 00:14:33,120
می خواهید چیزی در
380
00:14:33,120 –> 00:14:34,959
رابطه با یادگیری عمیق
381
00:14:34,959 –> 00:14:37,279
اجرا کنید، پیشنهاد می کنم روی gpu اجرا شود، بنابراین فقط
382
00:14:37,279 –> 00:14:39,680
اینجا کلیک کنید و اجازه دهید ذخیره کنید
383
00:14:39,680 –> 00:14:43,680
. ببینید اجازه دهید در واقع این ذخیره را انجام دهیم
384
00:14:43,680 –> 00:14:45,760
تا دوباره تخصیص داده شود
385
00:14:45,760 –> 00:14:47,360
386
00:14:47,360 –> 00:14:49,120
، جلسه را مقداردهی اولیه می کند و سپس می توانید
387
00:14:49,120 –> 00:14:50,480
دوباره کد را اجرا کنید،
388
00:14:50,480 –> 00:14:52,399
بنابراین این بسیار مفید است.
389
00:14:52,399 –> 00:14:55,040
390
00:14:55,040 –> 00:14:56,480
391
00:14:56,480 –> 00:14:58,800
392
00:14:58,800 –> 00:15:03,199
شما می توانید کاری مانند imports انجام دهید
393
00:15:03,199 –> 00:15:07,519
و اجرا می شود زیرا numpy قبلاً
394
00:15:07,600 –> 00:15:09,600
همان مورد را با tensorflow نصب کرده است
395
00:15:09,600 –> 00:15:11,970
بنابراین می توانید imports
396
00:15:11,970 –> 00:15:15,099
[Music] را
397
00:15:15,440 –> 00:15:19,440
اینجا بنویسید و دوباره اجرا می شود
398
00:15:19,440 –> 00:15:21,199
در صورتی که کتابخانه ای وجود داشته باشد که ما
399
00:15:21,199 –> 00:15:23,920
نداشته باشیم که قبلاً وجود نداشته باشد. از قبل نصب شده است،
400
00:15:23,920 –> 00:15:27,199
به عنوان مثال، اگر میخواهید
401
00:15:27,199 –> 00:15:28,320
402
00:15:28,320 –> 00:15:30,399
در پروژهای روی تصاویر پزشکی اجرا کنید، اشکالی ندارد، بنابراین
403
00:15:30,399 –> 00:15:32,639
تصاویر پزشکی معمولاً در فایلهای سرمایهدار میآیند
404
00:15:32,639 –> 00:15:33,600
405
00:15:33,600 –> 00:15:35,920
و کتابخانه محبوب پایتون برای مدیریت
406
00:15:35,920 –> 00:15:39,120
آنها توسط dycom است، بنابراین میتوانید
407
00:15:39,120 –> 00:15:41,440
معمولا import
408
00:15:41,440 –> 00:15:44,720
i daikon okay را اجرا کنید تا اینجا را ببینید. که
409
00:15:44,720 –> 00:15:46,800
اجرا نمی شود زیرا توسط dicom
410
00:15:46,800 –> 00:15:48,480
از قبل نصب نشده است، بنابراین در این مورد کاری که
411
00:15:48,480 –> 00:15:50,959
باید انجام دهید این است که آن را نصب کنید
412
00:15:50,959 –> 00:15:53,279
و خوبی نوت بوک ها این است
413
00:15:53,279 –> 00:15:56,399
که می توانید دستورات اتوبوس را اجرا کنید بنابراین
414
00:15:56,399 –> 00:15:58,399
مانند اجرای روی
415
00:15:58,399 –> 00:15:59,759
ترمینال
416
00:15:59,759 –> 00:16:02,320
شما فقط یک علامت تعجب اضافه کنید. در جلو علامت بزنید
417
00:16:02,320 –> 00:16:04,560
و می توانید
418
00:16:04,560 –> 00:16:07,040
با دستورات معمولی مانند ls دستوراتی را مانند هر چیز دیگری اجرا کنید
419
00:16:07,040 –> 00:16:10,240
یا این چیزها را 0 کنید و البته می توانید
420
00:16:10,240 –> 00:16:11,440
421
00:16:11,440 –> 00:16:13,680
یک اهرم جدید نصب کنید تا بتوانید یک آیکون
422
00:16:13,680 –> 00:16:15,839
فلیپ نصب را اجرا کنید
423
00:16:15,839 –> 00:16:18,639
424
00:16:18,959 –> 00:16:21,839
و آن را پیدا کنید آن را دانلود و
425
00:16:21,839 –> 00:16:24,320
نصب کنید. آن را و سپس می توانید آن را وارد کنید،
426
00:16:24,320 –> 00:16:25,279
427
00:16:25,279 –> 00:16:28,399
بنابراین اکنون خطا نمی کند، فقط
428
00:16:28,399 –> 00:16:32,000
وارد می شود، بنابراین دوباره بسیار مفید است،
429
00:16:32,000 –> 00:16:37,120
شخصاً من قبلاً از این
430
00:16:37,120 –> 00:16:38,560
collab
431
00:16:38,560 –> 00:16:41,120
در
432
00:16:41,120 –> 00:16:43,040
دور گذشته بسیار خوب استفاده می کردم، منظورم این است که gpus آنقدرها
433
00:16:43,040 –> 00:16:44,240
هم بد نیست
434
00:16:44,240 –> 00:16:46,079
به خصوص برای آزمایشهای کوچکی که میتوانید
435
00:16:46,079 –> 00:16:48,560
فایلهای خود را ذخیره کنید، میتوانید آنها را در اینجا نصب کنید،
436
00:16:48,560 –> 00:16:50,480
میتوانید ببینید که فایلهایی را دارید که
437
00:16:50,480 –> 00:16:52,480
میتوانید فایل را آپلود کنید.
438
00:16:52,480 –> 00:16:54,639
439
00:16:54,639 –> 00:16:56,560
440
00:16:56,560 –> 00:16:59,519
441
00:16:59,519 –> 00:17:01,680
442
00:17:01,680 –> 00:17:05,679
نوت بوک و در ستون
443
00:17:05,679 –> 00:17:08,079
اکنون ادامه می دهیم اوه اینگونه می
444
00:17:08,079 –> 00:17:09,919
توانید اجرا کنید اما بیایید ببینیم چه چیزی را می توانید اجرا کنید
445
00:17:09,919 –> 00:17:12,480
پس بیایید به تنسورفلو برگردیم اکنون
446
00:17:12,480 –> 00:17:16,000
مراحل اول با تنسورفلو
447
00:17:16,000 –> 00:17:18,160
دوباره تنسورفلو با دستکاری تانسور سطح پایین سروکار دارد،
448
00:17:18,160 –> 00:17:19,119
449
00:17:19,119 –> 00:17:21,520
بنابراین شما در آنجا
450
00:17:21,520 –> 00:17:23,520
هستید و خواهید دید که چگونه ما اگر این کار را انجام دهیم،
451
00:17:23,520 –> 00:17:26,000
دوباره خواهیم دید که تانسورها چیستند، چه متغیرهایی هستند،
452
00:17:26,000 –> 00:17:28,000
چه تفاوتی دارند
453
00:17:28,000 –> 00:17:29,280
،
454
00:17:29,280 –> 00:17:31,360
چند عملیات ریاضی را
455
00:17:31,360 –> 00:17:32,880
اجرا خواهیم کرد، بنابراین دوباره
456
00:17:32,880 –> 00:17:35,360
نوار گرادیان را که در فصل 2 و t دیدیم، خواهیم دید.
457
00:17:35,360 –> 00:17:37,760
پس از آن به keras می رویم، دوباره خواهیم
458
00:17:37,760 –> 00:17:38,559
دید
459
00:17:38,559 –> 00:17:41,600
که چگونه لایه ها را تعریف کنیم که چگونه
460
00:17:41,600 –> 00:17:43,840
از لایه این بار به ارث بری برای ایجاد یک
461
00:17:43,840 –> 00:17:45,760
462
00:17:45,760 –> 00:17:48,160
ماتریس بهینه ساز توابع از دست دادن لایه جدید و
463
00:17:48,160 –> 00:17:51,520
گروه آموزشی، پس بیایید به سراغ
464
00:17:51,520 –> 00:17:53,200
تانسورهای دیگر برویم
465
00:17:53,200 –> 00:17:55,039
اول از همه تانسورها و متغیرهای ثابت.
466
00:17:55,039 –> 00:17:56,320
467
00:17:56,320 –> 00:17:59,679
تانسورهای ثابت
468
00:17:59,679 –> 00:18:01,440
،
469
00:18:01,440 –> 00:18:03,679
اگر با numpy آشنا هستید، استفاده از
470
00:18:03,679 –> 00:18:05,919
تانسورهای تنسورفلو بسیار آسان است، به عنوان مثال، اگر می
471
00:18:05,919 –> 00:18:08,960
خواهید یک حسگر همه بار در numpy ایجاد کنید، یک
472
00:18:08,960 –> 00:18:10,240
473
00:18:10,240 –> 00:18:13,440
بار نقطه np را می نویسید، بنابراین
474
00:18:13,440 –> 00:18:15,840
بسیار شبیه است، یک بار tf dot را بنویسید و
475
00:18:15,840 –> 00:18:18,799
این را اجرا کنید و شما تانسور uh را دریافت
476
00:18:18,799 –> 00:18:20,080
477
00:18:20,080 –> 00:18:21,919
کنید که تانسور tensorflow را
478
00:18:21,919 –> 00:18:24,080
در این مورد ایجاد کنید، بنابراین می توانید ببینید
479
00:18:24,080 –> 00:18:28,640
که دو به یک است و به یاد می آورید که چگونه آرگومان نوع d
480
00:18:28,640 –> 00:18:30,960
یک float32 است
481
00:18:30,960 –> 00:18:34,480
و یک بار به همان صورت است که می توانید دوباره
482
00:18:34,480 –> 00:18:36,559
همان numpy می توانید صفر را ایجاد کنید.
483
00:18:36,559 –> 00:18:38,799
tf.00 میتوانید یک سنسور پر از صفر ایجاد کنید،
484
00:18:38,799 –> 00:18:39,919
485
00:18:39,919 –> 00:18:42,880
بنابراین این کار بسیار ساده است،
486
00:18:42,880 –> 00:18:45,120
همچنین میتوانید تانسورهای تصادفی ایجاد کنید و
487
00:18:45,120 –> 00:18:47,039
زمانی که میخواهید
488
00:18:47,039 –> 00:18:49,760
وزنها را در مدلی که
489
00:18:49,760 –> 00:18:52,880
معمولاً w را مقداردهی اولیه میکنید، مقداردهی اولیه کنید بسیار مفید است. من وزن های تصادفی
490
00:18:52,880 –> 00:18:55,039
بنابراین t dot random از توزیع های تصادفی مختلف پشتیبانی می کند،
491
00:18:55,039 –> 00:18:57,200
مثلاً
492
00:18:57,200 –> 00:18:58,640
توزیع نرمال، شما باید
493
00:18:58,640 –> 00:19:00,000
میانگین و
494
00:19:00,000 –> 00:19:02,240
انحراف معیار را به طور پیش فرض تعریف کنید، البته صفر
495
00:19:02,240 –> 00:19:04,640
و یک است و شکل را تقسیم می کنید، بنابراین اگر
496
00:19:04,640 –> 00:19:06,480
این را اجرا کنید، این تانسور را می گیرید اگر
497
00:19:06,480 –> 00:19:09,679
شما دوباره اجرا می کنید تنش تصادفی دیگری دریافت می کنید
498
00:19:09,679 –> 00:19:11,840
که بسیار ساده است و دوباره
499
00:19:11,840 –> 00:19:13,280
شبیه numpy است
500
00:19:13,280 –> 00:19:15,280
و البته از
501
00:19:15,280 –> 00:19:16,880
توزیع های دیگری مانند توزیع یکنواخت
502
00:19:16,880 –> 00:19:19,919
مجدداً میانگین و حداکثر
503
00:19:19,919 –> 00:19:23,200
مقدار شکل بسیار
504
00:19:23,200 –> 00:19:26,080
آسان استفاده می شود
505
00:19:26,080 –> 00:19:28,480
اکنون جدا از این
506
00:19:28,480 –> 00:19:30,080
تفاوت هایی وجود دارد بنابراین ما
507
00:19:30,080 –> 00:19:32,000
چند شباهت با numpy دیدم حالا بیایید
508
00:19:32,000 –> 00:19:34,559
برخی چیزها را ببینیم که کاملاً
509
00:19:34,559 –> 00:19:36,960
یکسان نیستند و چه کارهایی می توانید برای این کار انجام دهید
510
00:19:36,960 –> 00:19:39,280
بنابراین در numpy می توانید یک آرایه یک تانسور ایجاد کنید
511
00:19:39,280 –> 00:19:42,320
و سپس می توانید مقادیری را به
512
00:19:42,320 –> 00:19:44,320
قسمت هایی از این یا یک برش یا یک
513
00:19:44,320 –> 00:19:45,280
عنصر اختصاص دهید.
514
00:19:45,280 –> 00:19:47,360
به عنوان مثال در اینجا ما یک بار ایجاد می کنیم و
515
00:19:47,360 –> 00:19:48,960
سپس مقدار را به نقطه صفر اختصاص می دهیم
516
00:19:48,960 –> 00:19:50,960
صفر صفر کاما صفر
517
00:19:50,960 –> 00:19:52,480
حالا شما نمی توانید
518
00:19:52,480 –> 00:19:54,400
این کار را با تانسورهای موجود در
519
00:19:54,400 –> 00:19:55,679
tensorflow انجام دهید،
520
00:19:55,679 –> 00:19:56,559
بنابراین
521
00:19:56,559 –> 00:19:58,960
می توانید البته یک بار tf را ایجاد کنید و
522
00:19:58,960 –> 00:20:02,720
این اجرا می شود، اما اگر سعی کنید
523
00:20:02,720 –> 00:20:04,799
با استفاده از آن تخصیص دهید خراب می شود
524
00:20:04,799 –> 00:20:06,720
و پیام این است که این شی
525
00:20:06,720 –> 00:20:10,400
از تخصیص آیتم ها پشتیبانی نمی
526
00:20:10,400 –> 00:20:12,320
کند بنابراین مهم است که این را بدانید
527
00:20:12,320 –> 00:20:14,080
زیرا اگر می خواهید عمیق تر بروید و
528
00:20:14,080 –> 00:20:16,080
برخی چیزها را با استفاده از آن تعریف کنید.
529
00:20:16,080 –> 00:20:19,440
منظورم این است که برای من اشکالی ندارد که
530
00:20:19,440 –> 00:20:21,840
چگونه دقیقاً با نحوه ایجاد تغییرات کنار بیایم،
531
00:20:21,840 –> 00:20:24,000
بنابراین یک چیز مهم این است که
532
00:20:24,000 –> 00:20:25,039
تانسورها
533
00:20:25,039 –> 00:20:26,400
نمی توانند این کار را انجام دهند، اما
534
00:20:26,400 –> 00:20:29,039
کاری که می توانید انجام دهید این است که می توانید
535
00:20:29,039 –> 00:20:31,200
از متغیرها استفاده کنید
536
00:20:31,200 –> 00:20:34,320
بنابراین tensorflow از متغیرهایی پشتیبانی می کند که
537
00:20:34,320 –> 00:20:36,400
می توانید مقادیری را به آنها اختصاص دهید. آنها را به
538
00:20:36,400 –> 00:20:38,159
539
00:20:38,159 –> 00:20:40,320
جای تانسور tf.variable بگذارید
540
00:20:40,320 –> 00:20:42,480
و سپس باید مقدار اولیه را پاس کنید
541
00:20:42,480 –> 00:20:45,760
تا بتوانید
542
00:20:45,760 –> 00:20:48,159
مانند tf نسبتاً معمولی
543
00:20:48,159 –> 00:20:50,400
شکل را به صورت تصادفی درآورید و این همه است، بنابراین شما
544
00:20:50,400 –> 00:20:52,400
یک متغیر را اینگونه تعریف می کنید
545
00:20:52,400 –> 00:20:54,720
و خوبی متغیرها این است
546
00:20:54,720 –> 00:20:57,600
که شما می توانید مقادیر را اختصاص دهید بنابراین کاملاً
547
00:20:57,600 –> 00:21:02,000
متفاوت است. با برش ها برابر نیست.
548
00:21:02,000 –> 00:21:03,520
549
00:21:03,520 –> 00:21:06,080
550
00:21:06,080 –> 00:21:08,559
551
00:21:08,559 –> 00:21:11,039
552
00:21:11,039 –> 00:21:12,559
مقادیر w
553
00:21:12,559 –> 00:21:14,320
را می بینید که ما یک را با
554
00:21:14,320 –> 00:21:17,200
صفر و با مقادیر تصادفی ایجاد کردیم و حالا
555
00:21:17,200 –> 00:21:19,600
با این یکی وارد شده ایم
556
00:21:19,600 –> 00:21:22,320
یک چیز مهم که اختصاص نمی دهد
557
00:21:22,320 –> 00:21:24,640
تانسور جدیدی ایجاد نمی کند
558
00:21:24,640 –> 00:21:26,880
مثلاً نمی توانید قبلاً در اینجا امتحان کنید و آن را امتحان
559
00:21:26,880 –> 00:21:29,120
کنید. بسیار خوب،
560
00:21:29,120 –> 00:21:31,679
این ایده را از بین می برد این است که
561
00:21:31,679 –> 00:21:34,470
مقادیر پتانسیل موجود
562
00:21:34,470 –> 00:21:35,919
[Music] را تغییر می
563
00:21:35,919 –> 00:21:36,799
دهد
564
00:21:36,799 –> 00:21:38,799
، بنابراین این را در نظر داشته باشید
565
00:21:38,799 –> 00:21:43,039
566
00:21:43,039 –> 00:21:44,480
که اگر نمی خواهید کل تانسور کل متغیر را تغییر دهید، اکنون باید مقادیر یک شکل را تعیین
567
00:21:44,480 –> 00:21:47,039
کنید. می تواند
568
00:21:47,039 –> 00:21:49,039
مقادیری را به اسلایدهای خاص یا
569
00:21:49,039 –> 00:21:51,440
عناصر خاصی اختصاص دهد، به عنوان مثال اگر می
570
00:21:51,440 –> 00:21:53,440
خواهیم فقط اسلاید اول را
571
00:21:53,440 –> 00:21:54,480
به سه تغییر
572
00:21:54,480 –> 00:21:55,760
دهیم،
573
00:21:55,760 –> 00:21:57,120
این امکان پذیر است، بنابراین کارهایی وجود دارد که می توانید انجام دهید
574
00:21:57,120 –> 00:21:58,559
، کارهایی که نمی توانید انجام دهید، فقط
575
00:21:58,559 –> 00:22:01,280
باید با آن آشنا شوید و
576
00:22:01,280 –> 00:22:03,520
تقریباً هرگز لازم نیست با
577
00:22:03,520 –> 00:22:05,200
این موضوع کنار بیایم من فقط آنها را دیدم
578
00:22:05,200 –> 00:22:07,840
زیرا دیدن آنها حداقل یک بار مهم است،
579
00:22:07,840 –> 00:22:09,520
اما معمولاً مجبور نیستید با
580
00:22:09,520 –> 00:22:11,760
این چیزها سر و کار داشته باشید، مگر اینکه بخواهید
581
00:22:11,760 –> 00:22:14,320
برای تعریف پله قطار خود یا خود از آن استفاده کنید.
582
00:22:14,320 –> 00:22:18,320
ضرر خود یا خود شما way یا چیزی را
583
00:22:18,720 –> 00:22:21,520
نیز می توانید در
584
00:22:21,520 –> 00:22:24,880
عملیات مکان استفاده کنید تا بتوانید تخصیص دهید و بنابراین
585
00:22:24,880 –> 00:22:27,679
نیازی به نوشتن v برابر با v به علاوه
586
00:22:27,679 –> 00:22:30,480
چیزی نیست که می توانید آن را در جای خود انجام دهید
587
00:22:30,480 –> 00:22:32,159
که مهم است زیرا ما مجبور نیستیم
588
00:22:32,159 –> 00:22:33,440
کل شی را پاس کنیم
589
00:22:33,440 –> 00:22:35,840
590
00:22:35,919 –> 00:22:39,039
بنابراین شما حالا ببینید کار میکند
591
00:22:39,039 –> 00:22:40,240
592
00:22:40,240 –> 00:22:42,159
، دیدیم چگونه میتوانیم تانسورها و متغیرها را تعریف کنیم،
593
00:22:42,159 –> 00:22:44,320
حالا بیایید ببینیم با آنها چه کار میتوانیم انجام دهیم،
594
00:22:44,320 –> 00:22:45,760
بنابراین
595
00:22:45,760 –> 00:22:48,480
برخی از عملیاتهای ریاضی،
596
00:22:48,480 –> 00:22:49,360
آهان، عملیاتهای
597
00:22:49,360 –> 00:22:52,240
ابتدایی، بیایید یک تانسور ایجاد کنیم و
598
00:22:52,240 –> 00:22:54,799
سپس میتوانیم مربع آن را بگیریم
599
00:22:54,799 –> 00:22:57,120
، میتوانیم جذر آن را اختصاص دهیم. از آن
600
00:22:57,120 –> 00:22:59,440
میتوانیم دو تانسور اضافه کنیم، میتوانیم
601
00:22:59,440 –> 00:23:02,960
دو ماتریس را ضرب کنیم یا میتوانیم در جای خود
602
00:23:02,960 –> 00:23:04,159
603
00:23:04,159 –> 00:23:05,280
ضرب کنیم،
604
00:23:05,280 –> 00:23:08,640
بنابراین اینها
605
00:23:08,640 –> 00:23:10,240
عملیات ریاضی کاملاً معتبر با
606
00:23:10,240 –> 00:23:13,280
تانسور هستند، همانطور که با numpy rs
607
00:23:13,280 –> 00:23:14,240
608
00:23:14,240 –> 00:23:17,120
بسیار ساده است، معمولاً وقتی میخواهید تعریف کنید، از آنها استفاده
609
00:23:17,120 –> 00:23:18,880
میکنید.
610
00:23:18,880 –> 00:23:22,480
برای مثال قوانین خودت یا چیزی شبیه به این
611
00:23:22,480 –> 00:23:23,919
حالا
612
00:23:23,919 –> 00:23:25,520
اینها عملیات ساده ریاضی هستند،
613
00:23:25,520 –> 00:23:27,280
بیایید به چیزی برویم که فصل آخر را دیدیم
614
00:23:27,280 –> 00:23:29,520
که نوار ایجاد می کند و
615
00:23:29,520 –> 00:23:30,880
دوباره
616
00:23:30,880 –> 00:23:34,720
در هسته جریان تنسوری د پس
617
00:23:34,720 –> 00:23:37,600
بیایید دوباره ببینیم که چگونه از نوار گرادیان استفاده می کنیم،
618
00:23:37,600 –> 00:23:40,880
بیایید یک متغیر تعریف کنیم که
619
00:23:40,960 –> 00:23:43,120
آن را با مقداری مقدار دهی اولیه می کند، دوباره
620
00:23:43,120 –> 00:23:45,760
این یک عدد اسکالر است، بنابراین
621
00:23:45,760 –> 00:23:47,440
اگر از آخرین بار به یاد داشته باشید
622
00:23:47,440 –> 00:23:48,480
623
00:23:48,480 –> 00:23:50,640
و در اینجا محدوده را
624
00:23:50,640 –> 00:23:53,360
با نوار نوع گرادیان df و هر
625
00:23:53,360 –> 00:23:56,000
عملیاتی که انجام می دهیم، باز می کنیم. ما به دنبال
626
00:23:56,000 –> 00:23:58,799
این هستیم که گرادیان باید در
627
00:23:58,799 –> 00:24:01,919
محدوده ای که در اینجا نشان داده شده است در
628
00:24:01,919 –> 00:24:04,559
629
00:24:04,559 –> 00:24:06,480
630
00:24:06,480 –> 00:24:09,679
631
00:24:09,679 –> 00:24:11,120
632
00:24:11,120 –> 00:24:14,400
چه چیزی باشد. شش می شود یعنی با
633
00:24:14,400 –> 00:24:16,720
سه مربع یا دو برابر سه، بنابراین
634
00:24:16,720 –> 00:24:19,440
این کم و بیش نحوه عملکرد گرادیان است،
635
00:24:19,440 –> 00:24:21,120
ما دوباره چند مثال در فصل قبلی دیدیم.
636
00:24:21,120 –> 00:24:24,240
637
00:24:25,120 –> 00:24:27,919
638
00:24:27,919 –> 00:24:30,880
639
00:24:30,880 –> 00:24:32,559
640
00:24:32,559 –> 00:24:33,600
641
00:24:33,600 –> 00:24:35,919
نوارهای شیب دار تو در تو، به عنوان مثال، اگر
642
00:24:35,919 –> 00:24:37,840
می خواهید از آن در
643
00:24:37,840 –> 00:24:38,960
644
00:24:38,960 –> 00:24:41,919
آزمایش فیزیک استفاده کنید، جسمی دارید که
645
00:24:41,919 –> 00:24:44,480
آن را رها می کنید و می
646
00:24:44,480 –> 00:24:47,360
خواهید معادله موقعیت
647
00:24:47,360 –> 00:24:49,279
را نسبت به زمان داشته
648
00:24:49,279 –> 00:24:51,679
باشید، می توانید سرعت را محاسبه کنید.
649
00:24:51,679 –> 00:24:53,919
ch فقط مشتق موقعیت با
650
00:24:53,919 –> 00:24:55,520
توجه به زمان است
651
00:24:55,520 –> 00:24:58,880
و اگر از نوار شیب دیگری استفاده کنید،
652
00:24:58,880 –> 00:25:02,080
می توانید شتابی را که
653
00:25:02,080 –> 00:25:05,840
گرادیان سرعت نسبت به زمان است
654
00:25:05,840 –> 00:25:09,200
بگیرید، بنابراین می توانید کارهایی مانند این را دوباره انجام
655
00:25:09,200 –> 00:25:12,400
دهید، من هرگز شیب دوگانه را ندیده ام.
656
00:25:12,400 –> 00:25:15,279
استفاده می شود شاید مواردی وجود داشته باشد
657
00:25:15,279 –> 00:25:17,360
658
00:25:17,360 –> 00:25:19,919
حالا بیایید
659
00:25:19,919 –> 00:25:21,520
حالا که کم و بیش دیدیم که
660
00:25:21,520 –> 00:25:23,679
تانسورها چه متغیرهایی هستند چگونه
661
00:25:23,679 –> 00:25:25,600
می توانیم چند
662
00:25:25,600 –> 00:25:27,919
عملیات ریاضی انجام دهیم و چگونه می توانیم
663
00:25:27,919 –> 00:25:29,919
از نوار گرادیان استفاده کنیم که همه
664
00:25:29,919 –> 00:25:31,760
آنها را امروز دوباره دیدیم،
665
00:25:31,760 –> 00:25:34,640
بیایید پایانی را اجرا کنیم- مثال تا پایان، بنابراین ما
666
00:25:34,640 –> 00:25:35,360
667
00:25:35,360 –> 00:25:38,480
از a استفاده خواهیم کرد، این بار یک طبقهبندیکننده خطی
668
00:25:38,480 –> 00:25:40,559
ایجاد میکنیم و آخرین باری که یک طبقهبندیکننده تصویر ایجاد کردیم،
669
00:25:40,559 –> 00:25:42,400
670
00:25:42,400 –> 00:25:44,240
اکنون بسیار سادهتر خواهد بود،
671
00:25:44,240 –> 00:25:46,799
ما دادههای خودمان را ایجاد میکنیم، بنابراین بیایید
672
00:25:46,799 –> 00:25:48,159
دو کلاس
673
00:25:48,159 –> 00:25:51,039
بسیار ساده و فقط نقاط تصادفی را در 2d بنابراین
674
00:25:51,039 –> 00:25:53,679
x y ایجاد کنیم. مختصات همین است و هر نقطه
675
00:25:53,679 –> 00:25:54,880
676
00:25:54,880 –> 00:25:57,840
یک سطح مثبت یا منفی خواهد داشت،
677
00:25:57,840 –> 00:26:00,080
اجازه دهید نقاط را ایجاد کنیم، بنابراین
678
00:26:00,080 –> 00:26:02,799
تعداد نمادها را در هر کلاس 1000 تعریف می کنیم و سپس
679
00:26:02,799 –> 00:26:06,080
منفی و مثبت را ایجاد می
680
00:26:06,080 –> 00:26:07,840
کنیم، بنابراین فقط ra صحبت می کنیم. به طور کلی از این
681
00:26:07,840 –> 00:26:10,080
682
00:26:10,080 –> 00:26:13,200
توزیع، نرمال چند متغیره میانگین را می گیرد،
683
00:26:13,200 –> 00:26:15,440
بنابراین جایی که مرکز است و
684
00:26:15,440 –> 00:26:17,520
ماتریس کوواریانت که
685
00:26:17,520 –> 00:26:18,400
686
00:26:18,400 –> 00:26:19,600
شکل این
687
00:26:19,600 –> 00:26:21,600
توزیع در فضا است
688
00:26:21,600 –> 00:26:23,600
و البته چند نقطه می خواهیم، بنابراین یک
689
00:26:23,600 –> 00:26:26,480
وزیع دو مج
690
00:26:26,480 –> 00:26:29,039
وعه دو نقطه یکسان ایجاد می کنیم. ماتریس واریانت یا
691
00:26:29,039 –> 00:26:31,039
همان شکل
692
00:26:31,039 –> 00:26:33,520
اما متفاوت هستند و در مکانهای مختلف متمرکز شدهاند،
693
00:26:33,520 –> 00:26:35,360
بنابراین در
694
00:26:35,360 –> 00:26:38,960
نقطه صفر سه یک کاما سه این است،
695
00:26:39,039 –> 00:26:41,840
بنابراین بیایید دادههای ورودی خود
696
00:26:41,840 –> 00:26:45,840
را نمونهها ایجاد کنیم و حالا اجازه دهید ایجاد کنیم،
697
00:26:45,840 –> 00:26:48,000
اکنون دو ناحیه خالی داریم و میخواهیم آن
698
00:26:48,000 –> 00:26:50,400
را ایجاد کنیم. دادههای ورودی هر دو را
699
00:26:50,400 –> 00:26:51,440
با هم وارد کنید
700
00:26:51,440 –> 00:26:53,120
و بسیار ساده است که میتوانیم
701
00:26:53,120 –> 00:26:56,240
آنها را به صورت عمودی روی هم قرار دهیم و
702
00:26:56,240 –> 00:26:58,480
دادههای ورودی که استفاده خواهیم کرد اکنون
703
00:26:58,480 –> 00:26:59,360
اینها
704
00:26:59,360 –> 00:27:02,480
و اینها با هم انباشته شدهاند،
705
00:27:02,480 –> 00:27:04,799
بنابراین این ورودیهای ما هستند، حالا بیایید
706
00:27:04,799 –> 00:27:08,400
برچسبهای خود را تولید کنیم و به عنوان سطوح تنظیم کنیم.
707
00:27:08,400 –> 00:27:10,559
صفر برای منفی ها و یک
708
00:27:10,559 –> 00:27:12,559
برای مثبت ها، بنابراین کد دوباره
709
00:27:12,559 –> 00:27:14,640
بسیار ساده است، ما فقط صفرهای
710
00:27:14,640 –> 00:27:17,039
پشته راس را
711
00:27:17,039 –> 00:27:21,440
برای یک مجموعه از نقاط و یک بار
712
00:27:21,440 –> 00:27:23,840
برای مجموعه نقاط دیگر کنار هم قرار می دهیم. خیلی خوب است
713
00:27:23,840 –> 00:27:26,480
که ما در این کلاس چند نقطه داریم،
714
00:27:26,480 –> 00:27:29,120
بنابراین ورودیها و هدفهایمان را داریم
715
00:27:29,120 –> 00:27:31,200
و هر دو بر اساس rs نیستند، نه بر اساس
716
00:27:31,200 –> 00:27:34,080
تانسور،
717
00:27:34,080 –> 00:27:35,679
بیایید ببینیم در
718
00:27:35,679 –> 00:27:38,080
رابط چه شکلی هستند، بنابراین ترسیم آنها آسان است
719
00:27:38,080 –> 00:27:40,480
زیرا در 2 بعدی است، بنابراین ما به صورت
720
00:27:40,480 –> 00:27:42,960
داخلی هنگامی که یک
721
00:27:42,960 –> 00:27:45,520
نوت بوک jupyter را اجرا می کنید مانند من در حال حاضر،
722
00:27:45,520 –> 00:27:46,840
من از
723
00:27:46,840 –> 00:27:50,559
خط لوله matplotlib برای ترسیم چیزها استفاده می کنم،
724
00:27:50,559 –> 00:27:53,440
در این مورد، ما نقطه هایی در دو فضای
725
00:27:53,440 –> 00:27:56,320
در فضای 2 بعدی داریم، بنابراین از scatter استفاده می کنیم
726
00:27:56,320 –> 00:27:58,559
، این مختصات x هر نقطه است و
727
00:27:58,559 –> 00:28:00,880
این مختصات y
728
00:28:00,880 –> 00:28:03,279
برای نقاط و
729
00:28:03,279 –> 00:28:05,440
ما رنگ را تعریف می کنیم تا رنگ ها
730
00:28:05,440 –> 00:28:06,159
731
00:28:06,159 –> 00:28:08,640
اعداد باشند بنابراین برای نقاط اول صفر
732
00:28:08,640 –> 00:28:10,720
و برای
733
00:28:10,720 –> 00:28:12,080
نقاط دوم
734
00:28:12,080 –> 00:28:15,440
یک ها به این شکل است
735
00:28:15,679 –> 00:28:17,919
و در اینجا شما نقاط را دارید پس دوباره
736
00:28:17,919 –> 00:28:19,679
737
00:28:19,679 –> 00:28:21,919
اینها نقاط یک مجموعه هستند و اینها
738
00:28:21,919 –> 00:28:23,760
از مجموعه های دیگر هستند و رنگ ها
739
00:28:23,760 –> 00:28:25,840
بر اساس سطحی هستند که صفر یا یک را تعریف می کنیم
740
00:28:25,840 –> 00:28:27,039
741
00:28:27,039 –> 00:28:28,799
حالا بیایید ببینیم چگونه می
742
00:28:28,799 –> 00:28:30,640
توانیم این را تشخیص دهیم بنابراین آنچه می خواهیم
743
00:28:30,640 –> 00:28:33,520
ایجاد کنیم یک طبقه بندی خطی است که
744
00:28:33,520 –> 00:28:34,799
فقط یک خط است
745
00:28:34,799 –> 00:28:35,679
که
746
00:28:35,679 –> 00:28:39,360
این دو مجموعه را از هم جدا می کند.
747
00:28:39,360 –> 00:28:41,520
t این طبقهبندیکننده خطی را ایجاد میکند
748
00:28:41,520 –> 00:28:43,760
و از آنجایی که یک خط
749
00:28:43,760 –> 00:28:46,159
است، یک تابع ساده خواهد بود، بنابراین
750
00:28:46,159 –> 00:28:47,840
751
00:28:47,840 –> 00:28:50,320
ورودی x y مختصات ضربدر چیزی
752
00:28:50,320 –> 00:28:52,799
به اضافه چیزی است، بنابراین w در اینجا
753
00:28:52,799 –> 00:28:54,720
754
00:28:54,720 –> 00:28:55,840
شیب چیست
755
00:28:55,840 –> 00:28:58,640
و b خوب است چگونه آن را کم و بیش ترجمه کنیم.
756
00:28:58,640 –> 00:29:00,000
757
00:29:00,000 –> 00:29:02,960
پس بیایید آموزش ببینیم
758
00:29:02,960 –> 00:29:05,520
تا مجذور اختلاف
759
00:29:05,520 –> 00:29:08,000
بین پیشبینی این
760
00:29:08,000 –> 00:29:09,919
طبقهبندیکننده خطی و اهداف را به حداقل برسانیم، بنابراین
761
00:29:09,919 –> 00:29:11,360
تفاوت را در نظر میگیریم و سپس
762
00:29:11,360 –> 00:29:13,440
مجذور اختلاف
763
00:29:13,440 –> 00:29:16,559
را میگیریم و این مقداری است که سعی میکنیم آن را به حداقل برسانیم،
764
00:29:16,640 –> 00:29:19,919
اکنون به این صورت تعریف میکنیم
765
00:29:19,919 –> 00:29:22,320
متغیرهای طبقهبندیکنندههای ما، بنابراین دوباره باید
766
00:29:22,320 –> 00:29:24,799
این یکی و این یکی را تعریف کنیم و برای
767
00:29:24,799 –> 00:29:26,559
هر نقطه فقط در این ضرب میکنیم و
768
00:29:26,559 –> 00:29:28,559
این را اضافه میکنیم، پیشبینی میکنیم که
769
00:29:28,559 –> 00:29:30,640
میخواهیم پیشبینی نزدیک به
770
00:29:30,640 –> 00:29:32,399
سطح واقعی باشد
771
00:29:32,399 –> 00:29:35,200
، ابعاد آن دو ورودی است.
772
00:29:35,200 –> 00:29:36,880
بعد چون نقطه هایی با
773
00:29:36,880 –> 00:29:39,440
دو مختصات داریم، بنابراین دو برای ورودی ها و
774
00:29:39,440 –> 00:29:42,480
یک خروجی فقط یک سطح برای خروجی
775
00:29:42,480 –> 00:29:45,120
داریم، بنابراین هر دو w و v را
776
00:29:45,120 –> 00:29:46,399
متغیر تعریف می
777
00:29:46,399 –> 00:29:48,960
کنیم و مقداردهی اولیه می کنیم بنابراین برای w
778
00:29:48,960 –> 00:29:51,760
یکنواخت از صفر داریم. به یک با این شکل
779
00:29:51,760 –> 00:29:57,120
و برای b ما صفرهایی با این شکل
780
00:29:57,279 –> 00:29:59,520
داریم حالا که این
781
00:29:59,520 –> 00:30:01,919
مقدار تانسور را این متغیرهای جریان تنسور تعریف کرده ایم و
782
00:30:01,919 –> 00:30:05,120
می توانیم از آنها استفاده کنیم و می توانیم آنها را به روز کنیم
783
00:30:05,120 –> 00:30:07,200
بنابراین ایده این است که w و b صحیح را پیدا
784
00:30:07,200 –> 00:30:09,840
کنیم تا بتوانیم خطی
785
00:30:09,840 –> 00:30:13,279
که صفحه را به درستی جدا می کند،
786
00:30:13,279 –> 00:30:15,520
حالا اجازه دهید پاس رو به جلو را ببینیم،
787
00:30:15,520 –> 00:30:17,679
یک مدل تابع تعریف می کنیم، حتی یک شی
788
00:30:17,679 –> 00:30:19,520
نیست، فقط یک تابع است که برخی
789
00:30:19,520 –> 00:30:22,880
ورودی ها را می گیرد و از این متغیرهای تعریف شده استفاده می کند
790
00:30:22,880 –> 00:30:25,360
و این عملیات را اعمال می کند، بنابراین یک
791
00:30:25,360 –> 00:30:27,360
ضرب ماتریس بین ورودی ها اعمال می کنیم
792
00