هوش مصنوعی

هوش مصنوعی:همه چیز در مورد اعتماد است. هوش مصنوعی (AI) توانایی پیشرفت در همه چیز از حوزه پزشکی گرفته تا نجات سیاره ما را دارد ، اما با پیچیده تر شدن این فناوری ، سوالاتی از اعتماد به وجود می آید. چگونه می‌توانیم اطمینان حاصل کنیم که هوش مصنوعی بدون مانع پیشرفت آن قابل‌اعتماد است؟

ISO/IEC TR 24028 فناوری اطلاعات – هوش مصنوعی (AI) – اعتماد به هوش مصنوعی

هوش مصنوعی

اما هوش مصنوعی حضور دارد. این امر می‌تواند به بهبود زندگی ما و حل برخی از دشوارترین مسائل دنیا کمک کند. این کار انسان و ماشین‌آلات را قادر می‌سازد که به طور مشترک کار کنند, با پتانسیل بالا بردن توانایی‌های انسان و تکنولوژی فراتر از آنچه که حتی می‌توانیم تصور کنیم.

هوش مصنوعی

برای سازمان ها ، این می تواند به معنای افزایش بهره وری ، کاهش هزینه ها ، بهبود سرعت در بازار و بهتر شدن روابط مشتری از جمله موارد دیگر باشد. این در یک نظرسنجی Forbes Insights تاجران برای مسابقه در هوش مصنوعی آماده می شوند” ، نشان داد که 99٪ از مدیران در موقعیت های فنی گفتند که سازمان های آنها قصد دارند هزینه های هوش مصنوعی را تا سال آینده افزایش دهند.
به هوش مصنوعی اعتماد داریم؟

هوش مصنوعی

کارشناسان پیشرو در صنعت معتقدند که اطمینان از اعتماد از ابتدا یکی از جنبه های اساسی در پذیرش گسترده این فناوری است. با این حساب ، ایزو و کمیسیون بین المللی (IEC) کمیته فنی مشترک ISO / IEC JTC 1 ، فناوری اطلاعات ، تحت کمیته SC 42 ، هوش مصنوعی را تشکیل داده اند تا به عنوان یک کانون برای استاندارد سازی هوش مصنوعی خدمت کنند. گروهی از کارشناسان در میان بسیاری از ماموریت‌های خود در حال بررسی رویکردهای مختلف برای ایجاد اعتماد در سیستم‌های هوش مصنوعی هستند.

هوش مصنوعی

بنابراین ، استانداردها مهم هستند . Dr. Filip توضیح می‌دهد که چرا: ” ما هرگز نمی‌توانیم اعتماد کاربر را تضمین کنیم، اما با استانداردسازی ما می‌توانیم تمام جوانب قابل‌اعتماد بودن، مانند شفافیت، مقاومت، انعطاف‌پذیری، حریم خصوصی، امنیت و غیره را مورد تجزیه و تحلیل قرار دهیم و بهترین روش‌ها را توصیه کنیم که سیستم‌های هوش مصنوعی را به روش مورد نظر و سودمند انجام دهند.”
اتحادیه اروپا (EU) یک گروه متخصص سطح بالا در هوش مصنوعی (AI HLEG) تشکیل داد تا از اجرای استراتژی اروپا در هوش مصنوعی پشتیبانی کند که شامل ابعاد اخلاقی، قانونی و اجتماعی است.

هوش مصنوعی

در اوایل سال جاری ، آن را به توصیه های سیاست و سرمایه گذاری برای هوش مصنوعی قابل اعتماد منتشر کرد که دیدگاه گروه برای یک چارچوب نظارتی و مالی برای هوش مصنوعی قابل اعتماد را نشان می دهد.

هوش مصنوعی

طبیعتاً، سطح آسیب به روشی که هوش مصنوعی مورد استفاده قرار می‌گیرد، بستگی دارد. یک ابزار ضعیف طراحی‌شده که موسیقی یا رستوران‌ها را به کاربران توصیه می‌کند به وضوح آسیب کمتری نسبت به الگوریتمی که به تشخیص سرطان کمک می‌کند، ایجاد می‌کند. همچنین خطر استفاده از داده‌ها برای دستکاری پیامدها، مانند موارد Cambridge Analytica نیز وجود دارد.

هوش مصنوعی

از استانداردهای بین المللی با موفقیت برای رمزگذاری ارزیابی ریسک و مدیریت ریسک برای ده ها سال استفاده شده است. سری ISO / IEC 27000 در مورد مدیریت امنیت اطلاعات نمونه ای عالی از چنین رویکردی برای امنیت فضای مجازی و حفظ حریم خصوصی است. ” این کمک می کند تا سازمان ها برای مدیریت امنیت دارایی های خود ، مانند اطلاعات مالی ، مالکیت و دارایی فکری ، جزئیات کارمندان یا اطلاعاتی که توسط اشخاص ثالث به آنها سپرده شده است ، مدیریت کنند.

هوش مصنوعی

علاوه بر این ، هوش مصنوعی یک فناوری پیچیده است. ” “استانداردهای مربوط به هوش مصنوعی باید ابزاری برای شفافیت و یک زبان مشترک فراهم کند. سپس آنها می توانند خطرات را با روشهایی برای مدیریت آنها تعریف کنند. “

هوش مصنوعی

برنامه کاری ISO / IEC JTC 1 / SC 42 موضوعات مختلفی را برای AI (هوش مصنوعی ) بیان می کند ، که بسیاری از آنها در حال حاضر در گروه کاری WG 3 ، در دست توسعه هستند.
پروژه ها شامل تعدادی از اسناد مرجع است که به طور مستقیم با هدف کمک به ذینفعان در صنعت هوش مصنوعی ایجاد اعتماد به سیستم های خود انجام می شود.
ISO/IEC TR 24028 فناوری اطلاعات – هوش مصنوعی (AI) – اعتماد به هوش مصنوعی ، که عوامل مؤثر در تحلیل اعتماد به سیستم های هوش مصنوعی را مورد تجزیه و تحلیل قرار می دهد و جزئیات روش های ممکن برای بهبود آن را توضیح می دهد.

هوش مصنوعی

این سند کلیه ذینفعان و آسیب پذیری های هوش مصنوعی مانند تهدید به امنیت ، حریم خصوصی ، غیرقابل پیش بینی بودن ، خطای سخت افزار سیستم و موارد دیگر را در بر می گیرد.

منبع : سایت ایزو
گردآوری و ترجمه : الهه تقی زاده بهجتی