
گام های بعدی هوش مصنوعی قابل اعتماد: شفافیت ، سوگیری و حاکمیت بهتر داده ها
طی چند سال گذشته ، موزیلا توجه خود را به هوش مصنوعی معطوف کرده است و از وی می پرسد: چگونه می توان فناوری های مبتنی بر داده را که همه روزمره از آن استفاده می کنیم قابل اعتمادتر کرد؟ چگونه می توانیم مواردی مانند شبکه های اجتماعی ، خانه را بسازیم دستیارها و موتورهای جستجو در دوران پیش رو هم مفیدترند و هم ضرر کمتری دارند؟
در سال 2021 ، ما با این کار گام بعدی را برمی داریم با عمیق تر در سه زمینه که در آن فکر می کنیم می توانیم پیشرفت واقعی داشته باشیم ، : شفافیت ، سوگیری و حاکمیت بهتر داده ها . اگرچه در نگاه اول این مفاهیم بزرگ و انتزاعی به نظر می رسند ، اما هر سه در قلب مشکلاتی هستند که هر روز در اخبار می شنویم: مشکلاتی که نه تنها در محافل فناوری بلکه در بین سیاست گذاران ، رهبران تجارت و
به این فکر کنید: ما می دانیم که شبکه های اجتماعی باعث ایجاد اطلاعات نادرست و اختلافات سیاسی در سراسر جهان می شوند . و اتفاق نظر فزاینده ای وجود دارد که ما باید فوراً برای رفع این مشکل کاری انجام دهیم. با این وجود نمی توانیم به راحتی درون خود را ببینیم – نمی توانیم موشکافی کنیم – هوش مصنوعی که این سیستم عامل ها را هدایت می کند ، اصلاحات واقعی و پاسخگویی واقعی را غیرممکن می کند. اگر بخواهیم این مسئله را حل کنیم ، محققان ، سیاست گذاران و توسعه دهندگان باید بتوانند نحوه عملکرد این سیستم ها (شفافیت) را ببینند.
یا این: ما می دانیم که فناوری مبتنی بر هوش مصنوعی می تواند تبعیض ، حذف یا در غیر این صورت به برخی از افراد بیش از دیگران آسیب می رساند . و با رایج شدن سیستم های خودکار در همه چیز ، از تبلیغات آنلاین گرفته تا خدمات مالی گرفته تا پلیس ، تأثیر این سیستم ها واقعی تر می شود. ما باید بررسی کنیم که نژادپرستی سیستمی و عدم تنوع در صنعت فناوری ریشه این مشکلات (تعصب) است. به طور خاص ، ما همچنین باید ابزارهایی را برای شناسایی و کاهش سوگیری – و برای ایجاد فراگیری – در فناوری هایی که روزمره استفاده می کنیم ، بسازیم.
و ، سرانجام ، این: ما از جمع آوری مداوم داده ها درباره آنچه که می دانیم ، می دانیم. انجام آنلاین (بسیاری از) ما را بسیار ناخوشایند می کند . و ما می دانیم که روشهای فعلی جمع آوری اطلاعات در قلب بسیاری از مشکلاتی است که امروزه با فناوری روبرو هستیم ، از جمله اطلاعات غلط و تبعیض. با این وجود چند نمونه از فناوری وجود دارد که متفاوت عمل می کند. ما باید روش های جدیدی ایجاد کنیم که از هوش مصنوعی و داده ها استفاده کند به گونه ای که به عنوان افراد ما احترام بگذارد و به ما قدرت داده های جمع آوری شده در مورد ما را بدهد (حاکمیت بهتر داده ها) – و سپس با استفاده از این روش های جدید جایگزین محصولات آنلاین شوید
اواخر سال گذشته ، به دلایلی که در بالا گفته شد ، شفافیت ، تعصب و حاکمیت داده ها را به صفر رساندیم – هر یک از این زمینه ها در بزرگترین موضوعات "فناوری با جامعه مطابقت دارد" که امروزه با آنها روبرو هستیم. اتفاق نظر فزاینده ای وجود دارد که ما باید این مسائل را حل کنیم. نکته مهم ، ما معتقدیم که این آگاهی گسترده فرصتی منحصر به فرد برای فعالیت ما ایجاد می کند: ساخت محصولات ، نوشتن قوانین و ایجاد هنجارهایی که نتیجه آن ایجاد یک دنیای دیجیتال بسیار متفاوت باشد . طی چند سال آینده ، این فرصت را داریم که به سمت پیشرفت واقعی درمورد هوش مصنوعی قابل اعتمادتر – و به طور کلی اینترنت بهتر – پیشرفت کنیم.
این فرصت اقدام – فرصتی برای متفاوت و بهتر کردن اینترنت – نحوه تفکر ما را شکل داده است. مراحل بعدی کار ما. عملاً ، تیم های موجود در بنیاد موزیلا کار 2021 ما را درباره اهداف مرتبط با این مضامین سازماندهی می کنند :
- آزمون شفافیت هوش مصنوعی بهترین روش ها برای افزایش تصویب توسط سازندگان و سیاستگذاران.
- تسریع تأثیر افرادی که برای کاهش تعصب در AI تلاش می کنند.
- گزینه های تسریع عادلانه حاکمیت داده به عنوان راهی برای پیشبرد هوش مصنوعی قابل اعتماد.
تیم ها همچنین برای پیشرفت در این زمینه ها بر همکاری با دیگران در سراسر جنبش سلامت اینترنتی – و با افراد دیگر جنبش های اجتماعی – تمرکز کرده اند. ما یک هدف خاص 2021 را تعیین کرده ایم تا " شریک حرکات متنوع در تقاطع مسائل اصلی آنها و هوش مصنوعی قابل اعتماد ".
ما قبلاً برای همه این موضوعات حرکت داریم – و در حال کار هستیم ، هرچند با برخی بیشتر از دیگران است. ما بیشتر سال گذشته را برای توسعه ابتکارات مربوط به حاکمیت بهتر داده ها صرف کردیم ، از جمله آزمایشگاه Data Futures ، که اولین دور شرکای خود را در ماه دسامبر اعلام کرد. و همچنین در سال 2020 ، ما با شهروندان در پروژه هایی مانند YouTube Regrets Reporter کار کردیم تا نشان دهیم در عمل شفافیت شبکه های اجتماعی چگونه است. در حالی که کار ما بیشتر در مسئله تعصب است ، ما از کار افرادی مانند Mozilla Fellows Deborah Raji و Camille Francios که در حال بررسی روشهای مشخص برای مقابله با این چالش هستند ، حمایت می کنیم.
برنامه های سطح بالای ما برای این کار در اهداف 2021 و نتایج کلیدی ما ، که می توانید در ویکی موزیلا بیابید ، از آنها یاد بگیریم. در هفته های آینده جزئیات بیشتری درباره برنامه های خود – و فراخوان های مشارکت – ارسال خواهیم کرد ، از جمله مروری بر کار و تفکر در مورد شفافیت ، تعصب و حاکمیت بهتر داده ها. ما همچنین درباره تلاشها برای گسترش مشارکتهایی که با سازمانهای سایر جنبشها داریم ، پست خواهیم فرستاد.
همانطور که به جلو نگاه می کنیم ، یادآوری این نکته مهم است: هوش مصنوعی و داده ها فن آوری های رایانه ای امروزی را تعریف می کنند ، دقیقاً مانند وب فناوری تعریف کننده 20 سالها پیش وقتی موزیلا تاسیس شد. همانند وب ، هنجارهایی که هم درمورد هوش مصنوعی و هم در داده ها تنظیم می کنیم می توانند ما را به وجد بیاورند و قفل خوبی باز کنند ، یا تبعیض قائل شوند و تقسیم کنند. هنوز روزهای اولیه است ما هنوز این فرصت را داریم که مشخص کنیم هوش مصنوعی ما را به کجا خواهد برد و آن را به جای کمک به آسیب رساندن به بشریت خم کنیم. این مکان مهمی است که همه ما باید هم اکنون توجه خود را متمرکز کنیم.
P.S. برای کسب اطلاعات بیشتر در مورد تفکر موزیلا در مورد هوش مصنوعی قابل اعتماد ، به این پست وبلاگ و مقاله بحث مرتبط نگاهی بیندازید.
The post مراحل بعدی در مورد هوش مصنوعی قابل اعتماد: شفافیت ، تعصب و اداره اطلاعات بهتر اولین بار در وبلاگ موزیلا ظاهر شد.

