موزیلا چشم انداز برای AI قابل اعتماد
حرکت در مسیری اشتباه برای ما بسیار آسان است. همانطور که ما برای ساختن داده ها و اتوماسیون تقریباً در همه موارد عجله کرده ایم ، ما قبلاً پتانسیل هوش مصنوعی را برای تقویت تعصبات طولانی مدت یا هدایت ما به سمت محتوای خطرناک دیده ایم. و در صورت انتشار اطلاعات نادرست یا شناسایی نادرست چهره ، شفافیت و پاسخگویی کمی وجود دارد. همچنین ، به عنوان افراد ، به ندرت در مورد آنچه که با داده های ما اتفاق می افتد یا تصمیمات خودکار آنها ، نمایندگی داریم. اگر این روند ادامه یابد ، ما به احتمال زیاد در دنیایی با رانش هوش مصنوعی دور از ذهن خواهیم افتاد که شکاف بین قدرت بسیار زیاد و افراد فاقد آن را عمیق تر می کند.
از طرف دیگر ، تعداد قابل توجهی از مردم توجه به این موارد را جلب می کنند. روندهای خطرناک – و گفتن "راه دیگری برای این کار وجود دارد!" دقیقاً مانند روزهای اولیه منبع باز ، یک جنبش رو به رشد از تکنسین ها ، محققان ، سیاست گذاران ، وکلا و فعالان در حال کار بر روی روش هایی برای خم کردن آینده محاسبات به سمت نمایندگی هستند و توانمند سازی آنها در حال توسعه نرم افزاری برای شناسایی سوگیری AI هستند. آنها در حال نگارش قوانین جدید محافظت از داده ها هستند. آنها ابزار قانونی را اختراع می کنند تا افراد بتوانند داده های خود را کنترل کنند. آنها تشکیلاتی را شروع می کنند که از AI و اخلاقی حمایت می کنند. اگر این افراد – و موزیلا خود را در میان آنها حساب کند – موفق باشند ، ما توانایی ایجاد جهانی را داریم که هوش مصنوعی به جای آسیب رساندن به بشریت به طور گسترده کمک می کند.
این مکالمات الهام بخشی با افرادی از این دست بود که موزیلا را به تمرکز واداشت. 20 میلیون دلار + که هر سال برای ساختن جنبش با موضوع AI قابل اعتماد هزینه می کند. در طول سال 2020 ، ما در حال نوشتن مقاله ای با عنوان "ایجاد AI قابل اعتماد" برای مستند کردن چالش ها و ایده های عملیاتی هستیم که در این گفتگوها ارائه شده است. امروز ، نسخه نهایی این مقاله را منتشر می کنیم.
این مقاله مقاله سنتی نیست. این بیشتر به یک طرح عملی شبیه است ، و اقداماتی را نشان می دهد که موزیلا و سایر افراد همفکر می توانند برای تحقق بخشیدن به هوش مصنوعی قابل اعتماد انجام دهند. همانطور که در پاسخ به خطرات مردم و جامعه توانسته ایم شیفت را به آب تمیز و اتومبیل های ایمن تر تبدیل کنیم ، می توان این نوع شیفت را انجام داد. این مقاله کدی را که باید بنویسیم ، پروژه هایی که باید برای آنها تأمین مالی کنیم ، موضوعاتی را که برای حمایت از آنها و قوانینی که باید تصویب کنیم ارائه می دهد. این یک جعبه ابزار برای فن آوران ، نیکوکاران ، فعالان ، قانونگذاران است.
در قلب این مقاله هشت چالش بزرگ وجود دارد که جهان هنگام استفاده از هوش مصنوعی در فن آوری های اینترنتی مصرف کننده که همه ما روزانه استفاده می کنیم ، با آن روبرو است. این موارد مانند: تعصب است. حریم خصوصی؛ شفافیت؛ امنیت؛ و تمرکز قدرت هوش مصنوعی در دست چند شرکت بزرگ فناوری. در این مقاله چهار فرصت برای پاسخگویی به این چالش ها نیز بیان شده است. این فرصت ها حول این ایده است که توسعه دهندگان ، سرمایه گذاران ، سیاست گذاران و عموم مردم وجود دارند که می خواهند مطمئن شوند هوش مصنوعی متفاوت عمل می کند – و این به نفع ماست. با هم ، این فرصت را داریم که کد بنویسیم ، داده ها را پردازش کنیم ، قوانینی ایجاد کنیم و فناوری هایی را انتخاب کنیم که ما را به سمت خوبی هدایت کند.
مانند هر پروژه مهم موزیلا ، این مقاله با استفاده از روش منبع باز ساخته شده است. پیش نویس ما در ماه مه منتشر شد ، ناشی از 18 ماه گفتگو ، تحقیق و آزمایش بود. ما از مردم دعوت کردیم تا درباره آن پیش نویس اظهار نظر کنند و آنها نیز اظهار نظر کردند. افراد و سازمانها از سراسر جهان وزن داشتند: از گروههای حقوق دیجیتال در لهستان تا فعالان حقوق مدنی در ایالات متحده ، از متخصصان یادگیری ماشین در آمریکای شمالی تا سیاست گذاران در بالاترین سطح در اروپا ، از فعالان ، نویسندگان و سازندگان تا لیگ پیچک استادان ما مقاله را بر اساس این ورودی اصلاح کرده ایم تا بسیار قوی تر شود. این بازخورد به ما کمک کرد تا تعاریف خود را از "هوش مصنوعی" و "فناوری مصرف کننده" اصلاح کنیم. این ما را وادار کرد که عدالت نژادی را در این کار به یک لنز برجسته تر تبدیل کنیم. و این باعث شد که ما از نظر جغرافیایی ، نژادی و تنوع جنسیتی بیشتری در این مقاله گنجانیم.
در ماه ها و سال های پیش رو ، این سند به عنوان طرحی برای فعالیت های جنبش بنیاد موزیلا ، با تمرکز بر تحقیق ، حمایت و پشتیبانی خواهد بود. و اعطای کمک هزینه ما در حال حاضر شروع به آشکار کردن این کار کرده ایم: طرفداری از موزیلا در مورد توصیه های YouTube تا حد زیادی مشکل را برای ایجاد هوش مصنوعی روشن کرده است. آزمایشگاه Futures Lab و صندوق هوش مصنوعی اروپا که ما با بنیادهای شریک در حال توسعه هستیم ، از پروژه ها و ابتکاراتی پشتیبانی می کنند که تصور می کنند چگونه هوش مصنوعی قابل اعتماد در چندین قاره طراحی و ساخته شده است. و همکاران موزیلا و برندگان جایزه مانند سیلوی دلاکروا ، دبورا راج و نیما آایر در حال مطالعه نحوه تلاقی هوش مصنوعی با حاکمیت داده ها ، برابری و تعصب سیستمی هستند. کارهای گذشته و حال مانند این نیز به مقاله سفید بازمی گشت و به ما کمک می کند تا با انجام کار یاد بگیریم.
ما همچنین امیدواریم که این کار فرصت های جدیدی را برای افرادی که فناوری روزمره استفاده می کنند را ایجاد کند. برای مدت طولانی ، ساخت فناوری که برای مردم ارزش قائل بود مترادف با جمع آوری هیچ یا اطلاعات کمی در مورد آنها بود. در حالی که حریم خصوصی همچنان تمرکز اصلی موزیلا و سایرین است ، ما باید راهی برای محافظت و توانمندسازی کاربران پیدا کنیم که شامل جمع آوری و استفاده از داده ها نیز باشد تا به افراد تجربیات مورد نظر خود را ارائه دهیم. همانطور که در این مقاله توضیح داده شده است ، تعداد بیشتری از توسعه دهندگان – از جمله بسیاری از همکاران ما در شرکت موزیلا – هستند که مسیرهای جدیدی را می روند که به این سمت می روند. با هم.

