هوش مصنوعی:همه چیز در مورد اعتماد است. هوش مصنوعی (AI) توانایی پیشرفت در همه چیز از حوزه پزشکی گرفته تا نجات سیاره ما را دارد ، اما با پیچیده تر شدن این فناوری ، سوالاتی از اعتماد به وجود می آید. چگونه میتوانیم اطمینان حاصل کنیم که هوش مصنوعی بدون مانع پیشرفت آن قابلاعتماد است؟
ISO/IEC TR 24028 فناوری اطلاعات – هوش مصنوعی (AI) – اعتماد به هوش مصنوعی
هوش مصنوعی
اما هوش مصنوعی حضور دارد. این امر میتواند به بهبود زندگی ما و حل برخی از دشوارترین مسائل دنیا کمک کند. این کار انسان و ماشینآلات را قادر میسازد که به طور مشترک کار کنند, با پتانسیل بالا بردن تواناییهای انسان و تکنولوژی فراتر از آنچه که حتی میتوانیم تصور کنیم.
هوش مصنوعی
برای سازمان ها ، این می تواند به معنای افزایش بهره وری ، کاهش هزینه ها ، بهبود سرعت در بازار و بهتر شدن روابط مشتری از جمله موارد دیگر باشد. این در یک نظرسنجی Forbes Insights تاجران برای مسابقه در هوش مصنوعی آماده می شوند” ، نشان داد که 99٪ از مدیران در موقعیت های فنی گفتند که سازمان های آنها قصد دارند هزینه های هوش مصنوعی را تا سال آینده افزایش دهند.
به هوش مصنوعی اعتماد داریم؟
هوش مصنوعی
کارشناسان پیشرو در صنعت معتقدند که اطمینان از اعتماد از ابتدا یکی از جنبه های اساسی در پذیرش گسترده این فناوری است. با این حساب ، ایزو و کمیسیون بین المللی (IEC) کمیته فنی مشترک ISO / IEC JTC 1 ، فناوری اطلاعات ، تحت کمیته SC 42 ، هوش مصنوعی را تشکیل داده اند تا به عنوان یک کانون برای استاندارد سازی هوش مصنوعی خدمت کنند. گروهی از کارشناسان در میان بسیاری از ماموریتهای خود در حال بررسی رویکردهای مختلف برای ایجاد اعتماد در سیستمهای هوش مصنوعی هستند.
هوش مصنوعی
بنابراین ، استانداردها مهم هستند . Dr. Filip توضیح میدهد که چرا: ” ما هرگز نمیتوانیم اعتماد کاربر را تضمین کنیم، اما با استانداردسازی ما میتوانیم تمام جوانب قابلاعتماد بودن، مانند شفافیت، مقاومت، انعطافپذیری، حریم خصوصی، امنیت و غیره را مورد تجزیه و تحلیل قرار دهیم و بهترین روشها را توصیه کنیم که سیستمهای هوش مصنوعی را به روش مورد نظر و سودمند انجام دهند.”
اتحادیه اروپا (EU) یک گروه متخصص سطح بالا در هوش مصنوعی (AI HLEG) تشکیل داد تا از اجرای استراتژی اروپا در هوش مصنوعی پشتیبانی کند که شامل ابعاد اخلاقی، قانونی و اجتماعی است.
هوش مصنوعی
در اوایل سال جاری ، آن را به توصیه های سیاست و سرمایه گذاری برای هوش مصنوعی قابل اعتماد منتشر کرد که دیدگاه گروه برای یک چارچوب نظارتی و مالی برای هوش مصنوعی قابل اعتماد را نشان می دهد.
هوش مصنوعی
طبیعتاً، سطح آسیب به روشی که هوش مصنوعی مورد استفاده قرار میگیرد، بستگی دارد. یک ابزار ضعیف طراحیشده که موسیقی یا رستورانها را به کاربران توصیه میکند به وضوح آسیب کمتری نسبت به الگوریتمی که به تشخیص سرطان کمک میکند، ایجاد میکند. همچنین خطر استفاده از دادهها برای دستکاری پیامدها، مانند موارد Cambridge Analytica نیز وجود دارد.
هوش مصنوعی
از استانداردهای بین المللی با موفقیت برای رمزگذاری ارزیابی ریسک و مدیریت ریسک برای ده ها سال استفاده شده است. سری ISO / IEC 27000 در مورد مدیریت امنیت اطلاعات نمونه ای عالی از چنین رویکردی برای امنیت فضای مجازی و حفظ حریم خصوصی است. ” این کمک می کند تا سازمان ها برای مدیریت امنیت دارایی های خود ، مانند اطلاعات مالی ، مالکیت و دارایی فکری ، جزئیات کارمندان یا اطلاعاتی که توسط اشخاص ثالث به آنها سپرده شده است ، مدیریت کنند.
هوش مصنوعی
علاوه بر این ، هوش مصنوعی یک فناوری پیچیده است. ” “استانداردهای مربوط به هوش مصنوعی باید ابزاری برای شفافیت و یک زبان مشترک فراهم کند. سپس آنها می توانند خطرات را با روشهایی برای مدیریت آنها تعریف کنند. “
هوش مصنوعی
برنامه کاری ISO / IEC JTC 1 / SC 42 موضوعات مختلفی را برای AI (هوش مصنوعی ) بیان می کند ، که بسیاری از آنها در حال حاضر در گروه کاری WG 3 ، در دست توسعه هستند.
پروژه ها شامل تعدادی از اسناد مرجع است که به طور مستقیم با هدف کمک به ذینفعان در صنعت هوش مصنوعی ایجاد اعتماد به سیستم های خود انجام می شود.
ISO/IEC TR 24028 فناوری اطلاعات – هوش مصنوعی (AI) – اعتماد به هوش مصنوعی ، که عوامل مؤثر در تحلیل اعتماد به سیستم های هوش مصنوعی را مورد تجزیه و تحلیل قرار می دهد و جزئیات روش های ممکن برای بهبود آن را توضیح می دهد.
هوش مصنوعی
این سند کلیه ذینفعان و آسیب پذیری های هوش مصنوعی مانند تهدید به امنیت ، حریم خصوصی ، غیرقابل پیش بینی بودن ، خطای سخت افزار سیستم و موارد دیگر را در بر می گیرد.
منبع : سایت ایزو
گردآوری و ترجمه : الهه تقی زاده بهجتی
بدون دیدگاه، دیدگاه خود را در زیر اضافه کنید!