در حال دریافت لینک های دانلود بدون سانسور
فیلم Coded Bias 2020... لطفا منتظر بمانید ...
هنگامی که جوی بولاموینی، محقق آزمایشگاه رسانه MIT، متوجه میشود که تشخیص چهره چهرههای تیره پوست را به دقت نمیبیند، سفری را آغاز میکند تا اولین قانون ایالات متحده را علیه سوگیری در الگوریتمهایی که همه ما را تحت تأثیر قرار میدهند، تصویب کند.
دانلود فیلم Coded Bias 2020 (تعصب کدگذاری شده) دوبله فارسی بدون سانسور و با زیرنویس فارسی در فیلمازون.
موضوع: بله ، مربوط است. بله ، باید نظارتی وجود داشته باشد.
مستند: زباله. در اینجا به این دلیل است: 1. عنوان "تعصب کد شده" است: به نظر می رسد همه در این مستند موافق هستند حتی برنامه نویسان نمی دانند چرا به نتیجه می رسند. سپس قسمت * کد شده * کجاست؟
2. هوش مصنوعی و ML * یکسان نیستند * حتی اگر به نظر برسد که به جای یکدیگر استفاده شده اند.
3. برنامه نویسانی که مدام به آنها اشاره می کنند کجا هستند؟ آنها نتوانستند یک برنامه نویس * مجرد * بگیرند که حتی نظر بدهد؟ ما ده ها سکه هستیم.
4. به نظر می رسد همه سعی می کنند بخشی از اعتبار را به دست آورند. برای آنها خوب است. اما آنقدر واضح جلوه ندهید. زشت است.
5. این مستند در نوامبر 2020 منتشر شد. ممنوعیت ها از ژوئن 2020 آغاز شد. به نظر می رسد که هرچه زودتر آن را منتشر کردند ، آنها می دانستند که هزینه بیشتری خواهند داشت.
6. سناتور هر کسی که او را متهم می کرد برنامه نویس ها را متهم می کرد. بر خلاف تصور ، برنامه نویسان * کنترل کامل پروژه را ندارند (حتی در پروژه های غیر AI \ ML).
افراد زیادی درگیر هستند.
7 در هر پروژه ، برنامه نویسان به ندرت همه نمونه ها را دارند. این آزمون را باطل می کند. در عوض یک بخش جداگانه وجود دارد.
8. در مواردی مانند این ، دو سناریو وجود دارد: الف. شخصی که * مسئول * پروژه است ، معمولاً یک محصول \ مدیر پروژه ، مجموعه * داده * را ارائه می دهد.
ب. اگر داده ها حساس هستند ، همانطور که باید در این مورد باشد ، فقط زیرمجموعه بسیار کوچکی دریافت می کنید. رفع واقعی بر اساس *نقص های گزارش شده توسط مشتری *اتفاق می افتد.
9. اگر برنامه نویسان به همه پرونده های حساس دسترسی داشتند ، پس شما مشکل بزرگتری نسبت به تشخیص چهره دارید. احتمالاً یک یا دو نفر به زیر مجموعه ورودی ها دسترسی خواهند داشت. اما ما نمی دانیم زیرا شما هرگز با هیچ کس مصاحبه نکرده اید.
10. در هر نقطه ، * مدیریت * اختیار مطلق برای نادیده گرفتن تصمیم برنامه نویس دارد. به هر حال ، هنوز یک شغل است.
11. برنامه نویسان به داده ها اهمیت نمی دهند ، در بیشتر اوقات به هر حال. داده ها فقط به عنوان بخشی از آزمون مهم هستند. این * کاربران * آن داده ها هستند که به چه \ چگونه \ کی \ کجا علاقه مند هستند.
12. برنامه نویسان درست مانند هر زمینه دیگری با همین درصد وظیفه شناسی. آنها می دانند که استفاده غیر اخلاقی از داده ها امری عادی * و * موضوعی باز است. اما هنگامی که در چهارراه بودید ، درست مانند دوست داشتن \ dislikes \ upvotes \ downvota ، 2 ثانیه وقت گذاشتید تا تصمیم بگیرید که تنبلی برای شما مهمتر است (به یاد داشته باشید زمانی که می توانید تاکسی بدون تقریباً هیچ گونه اطلاعاتی ندهید؟)
13. این مستند با محوریت ایالات متحده است. اشکالی ندارد اما به نظر من ، جدا از انگلستان و چین ، کشورهای دیگر برای سازندگان فیلم وجود نداشت. و سپس آنها یک سخنران بحث برانگیز "چین در این مورد صریح است" را معرفی می کنند. بله ، برادر.
14. مستند حس خوبیه خشمگین خواهید شد اما همین. هیچ اطلاعات واقعی به شما نمی دهد به نظر می رسید که مستند بیشتر به دنبال صحبت بیشتر مردم است تا عمیق تر.
اگر می خواهید همه احساسات شما را برانگیزد اما برنامه نویسان را از این کار کنار بگذارید ، لطفاً تماشا کنید ، مگر اینکه مصاحبه های آنها را وارد کنید (ما خوب در آن)
دانلود فیلم Coded Bias 2020 (تعصب کدگذاری شده) دوبله فارسی بدون سانسور و با زیرنویس فارسی در فیلمازون.
پیامهای کلی منتقل شده قدرتمند هستند و نمی توان منکر این شد که ما نیاز فوری به تنظیم فناوری ای داریم که به همه جنبه های زندگی ما دست یافته است - مانند این است که به مردم اجازه دهیم بدون معرفی هیچ گونه قوانین راهنمایی و رانندگی رانندگی کنند.
اجرا با این وجود ، این مستند ، حداقل ، بسیار ناچیز است. معمولی وجود دارد: مونتاژهای جذاب ، مصاحبه های به سبک TED ، صداگذاری اخبار و آزاردهنده ترین آنها - گرافیک های مصنوعی (با استفاده از کلمات کلیدی) داده های اسکن هوش مصنوعی در قلم دیجیتالی کلیشه ای همراه با جلوه های صوتی احمقانه که ، مگر این که مخاطبان اصلی این مستند کلاس پنجم است ، من نمی فهمم چرا لازم است آنها را بی وقفه تجدید نظر کنیم. و سپس "صدای رباتیک" غیرقابل تصور وجود دارد. این فقط در سن بلوغ است.
شاید تولیدکنندگان محتاط باشند که مردم هنوز بدون این ترفندها با خطر هوش مصنوعی کنترل نشده مواجه نخواهند شد. اما من استدلال می کنم که مردم بیشتر هشدار خواهند داد تا بدانند چگونه هوش مصنوعی در کمترین میزان مورد انتظار در زندگی ما نفوذ کرده و بر زندگی ما تأثیر می گذارد. اگر مستند بتواند به طور واضح به آسیب های احتمالی اشاره کند ، من فکر می کنم مردم طبیعتاً فقدان مقررات را نگران کننده می دانند ، به تصاویر بصری احمقانه و جلوه های صوتی نیاز نیست. گاهی اوقات فکر می کنم آنها در واقع شدت خطر احتمالی موجود را تضعیف می کنند. به عنوان مثال ، صحنه ای که در آن یک نوجوان به اشتباه توسط پلیس لباس شخصی متوقف می شود ، به جای اینکه با یک قطعه موسیقی متن فیلم خوش طعم همراه شود که نشان دهنده خطر است ، اگر همه چیز به طرز وحشتناکی ساکت باشد بسیار قوی تر خواهد بود.
و مصاحبه ها و اطلاعات - بله ، هوش مصنوعی حتی برای برنامه نویسان مانند یک جعبه سیاه است ، اما آیا می توانید آن را به زبان عادی توضیح دهید تا مردم آن را دریافت کنند؟ - می تواند بسیار بینش تر باشد حتی برخی از کلیپ های کوتاه Youtube به سبک Vox این مسائل را عمیق تر بررسی کرده اند.
موضوعات مورد بررسی نیز کمی در همه جا وجود دارد. من متوجه شدم این حوزه نسبتاً جدید است ، بنابراین واژگان و تمرکز هنوز به این شکل ساده نیست ، هنوز ... گاهی اوقات مستند مسائل مربوط به تعصبات آشکار را مطرح می کند ، که با عنوان مطابقت دارد ، اما گاهی اوقات ما حتی نمی دانیم مشکل چیست ، این فقط مساله این است که چیزها کاملاً غیر شفاف و/یا توسط شخص ثالث تأیید نشده باشند. قسمت های چین نیز کمی از بقیه مستند جدا شده اند و خود کشور در حرکات گسترده ای نقاشی شده است - گویی تا زمانی که نتوانیم فرد بد را تشخیص دهیم تا احساس خوبی نسبت به خود داشته باشیم ، نمی توانیم کار خوبی انجام دهیم.
نظرات کاربران
برای ثبت نظر ابتدا وارد اکانت خود شوید.