رونمایی از گفتگوگر هوشمند مسائل حقوقی
تاریخ انتشار: ۱۰ تیر ۱۴۰۲ | کد خبر: ۳۸۱۰۷۸۶۷
بهمناسبت هفته قوه قضاییه بهروز مینایی بیدگلی، مشاور مدیرحوزههای علمیه در هوش مصنوعی ضمن بازدید از نمایشگاه بینالمللی الکامپ، در غرفه شرکت دانشبنیان عهد از نسخه مقدماتی ربات گفتگوگر پاسخگو به مسائل حقوقی رونمایی کرد.
رئیس دانشکده مهندسی کامپیوتر و عضو هیئت ممیزه دانشگاه علم و صنعت ایران در این مراسم اظهارکرد: امروزه چتباتها یا رباتهای گفتگوگر هوشمند، لبهی دانش هوش مصنوعی و مظهر پیشرفت هوش مصنوعی در جایگاههای مختلف از جمله تغییر ترندها و رویههای صنعت و تغییر محسوس لبهی دانش علوم مختلف هستند.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
مشاور مدیر حوزههای علمیه در امور هوش مصنوعی، فناوری اطلاعات و فضای مجازی، در پاویون شرکتهای دانشبنیان بیست و ششمین نمایشگاه الکامپ که به معرفی آخرین دستاوردهای شرکتهای توانمند ایرانی در حوزه الکترونیک و کامپیوتر پرداخته است، گفت: گفتگوگرهای هوشمند که مبتنی بر مدلهای زبانی بزرگ ساخته شدهاند، عملا با اطلاعات همه جای دنیا سروکار دارند و بالتّبع، قادر هستند دانش هر دامنه و قلمرویی، از وکالت، قضاوت و قوانین گرفته تا پزشکی و حوزههای تخصصی مربوط به مسائل ورزش، تناسب اندام و انواع و اقسام توصیههای موجود را، با زبان طبیعی به صورت کاملا روان در اختیار مخاطب قرار دهند.
وی، گفتگوگرهای هوشمند را علاوه بر داشتن ویژگی تولید متون سلیس، همچنین توانا در یک نوع استدلالگری عمومی یا common sense reasoning دانست و افزود: بخاطر داشتن دو قابلیت مهم یادشده، این گفتگوگرها توانستهاند تحوّل عظیمی در صنعتهای گوناگون ایجاد کنند و شغلهای زیادی را تحت الشعاع قرار دهند.
مینایی با تاکید بر اینکه امروز در دنیا، شغلهایی که به این دانش دسترسی ندارند رو به زوال خواهند رفت، گفت: روشن است مشاغلی که آگاهانه نسبت به این فناوری ورود میکنند، شکوفاتر خواهند شد و همچنین انقلاب صنعتی چهارم با این مسئله بلوغ و نضج بسیار زیادی خواهد گرفت.
عضو میز هوش مصنوعی وزارت علوم، تحقیقات و فناوری افزود: عدهای در دنیا به خاطر امکان آسیبزایی یا امکان تعدّی به حریمهای خصوصی یا امکان مشاورههای نامناسب یا غیرحرفهایِ این گفتگوگرها، به این نتیجه رسیدهاند که باید کنترلهایی روی آن صورت بگیرد. اگرچه بهخاطر مباحث اخلاقی و اجتماعی پیرامون هنجارهای مختلف فرهنگی و اجتماعی، قانونمند شدن سطوح جدید هوش مصنوعی، مسلماً باید یک ضرورت تلقی شود؛ ولی وقتی با مقولهی حکمرانی و ورود ابرقدرتها به این عرصه مواجه میشویم و نظریههای اجتماعی - سیاسیِ پدیدهی هوش مصنوعی را محصور میکنند، احتمال این مسئله میرود که بهخاطر پیشرفتگی و راهبردی بودن این فناوری، به زودی آژانس بینالمللی هوش مصنوعی شبیه آژانس انرژی اتمی تشکیل خواهد شد و آن آژانس برای کشورهایی که تا آن وقت به این فناوری مسلط نیستند و قصد ورود به آن را دارند، قانونگذاری خواهد کرد.
وی با بیان اینکه این مسئله به این معناست که اگر در این زمینه تسریع نکنیم و جزء کشورهای پیشرو نباشیم، سریعاً برایمان تعیین تکلیف خواهند کرد، گفت: امروز پیگیری این امر واجب کفایی و برای برخی واجب عینی است که اگر ماموریت رسیدن به ده کشور برتر هوش مصنوعی را رهبر انقلاب بر عهده ما گذاشتهاند، کسانی که در کشور در این مسئله توانمند هستند، این فناوریِ لبهی علمی را در حد اعلای آن توسعه دهند.
مینایی در خصوص گفتگوگرهای هوشمند چندزبانهی بینالمللی که همچون چتجیپیتی، برپایهی کلاندادههای متنوع جهانی، آموزش یافتهاند و بدون تنظیمگری و هدایتگری، پاسخهای خیلی نامناسبی را در جامعه پخش خواهند کرد، گفت: همین فناوری در سایهی اصلاحی که میتوند با اتکا به دادههای بومی یک کشور یا یک فرهنگ یا یک حوزهی خاص روی آن صورت بگیرد، میتواند به شکل هدایتشدهای، تنظیمگریها یا رگولاسیونهایی داشته باشد که استفادهی صحیح از این فناوری را به کاربران آن حیطه القاء نماید.
دبیر علمی اولین همایش بینالمللی هوشمصنوعی، فرهنگ و علوم اسلامی با ابراز خُرسندی از حرکتی که شرکت دانشبنیان "عهد" در جهت مشاورهی هوشمند پیرامون پرسشهای حقوقی داشته و هدایتگریای که با اتّکا به دادگان پرسشهای در دسترس خود نسبت به این فناوری انجام داده است، افزود: محصولی هوشمند از امروز در معرض قرار گرفته است که میتواند یک پایگاه مطمئن برای پاسخ دادن به سوالات حقوقی مراجعین باشد و البته هیچ یک از مشاورههای ارائهشده، در نهایت، از تایید خبرگان علم حقوق علم بینیاز نیست.
مشاور مدیر حوزههای علمیه در هوش مصنوعی، پرسش و پاسخ حقوقی را زمینهای برای رفع احتیاجات همهی مردم (و نه فقط مختص وکلا) دانست و افزود: من فکر میکنم وکلا نباید از این مسئله، هراسی داشته باشند؛ بلکه باید با حمایت خود، تقویتش کنند.
استاد تمام دانشگاه علم و صنعت، حمایت وسیع جامعهی وکلا را اقدامی لازم و ضروری از این قشر فرهیخته ارزیابی نمود و بیان کرد: لازم است جامعهی وکلا، از این فناوری حمایت نموده و دادههای درست و مناسب بیشتری تولید کنند تا در حکم یک دستیار برای آنها باشد و بسیاری از کارهایی که میبایست در حالت عادی ساعتها برای انجامش زحمت بکِشند، در عرض چند ثانیه بتوانند با کمک این فناوریِ هوشمند، انجام دهند.
منبع:خبر حوزه
باشگاه خبرنگاران جوان قم قممنبع: باشگاه خبرنگاران
کلیدواژه: هوش مصنوعی حوزه های علمیه
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.yjc.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «باشگاه خبرنگاران» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۸۱۰۷۸۶۷ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
هوش مصنوعی بی طرف نیست ؛ چشم بسته در جنگ شلیک می کند
همشهری آنلاین - گروه سیاسی: هشدارهای بینالمللی نسبت به استفاده از تبعات هوش مصنوعی در جنگافزارها و میدانهای نبرد رو به افزایش است. تلفات دستهجمعی استفاده از این فناوری در سلاحها به همراه خطای غیر قابل چشمپوشی آن در کشتار غیرنظامیان بیش از هر چیز در این گزارشها محل توجه است. فایننشال تایمز در گزارشی به همین موضوع پرداخته است.
در بخشهایی از این گزارش آمده است:
دولت های غربی برای راه اندازی مؤسسه های ایمنی هوش مصنوعی با یکدیگر رقابت میکنند. بریتانیا، ایالات متحده، ژاپن و کانادا همگی چنین ابتکاراتی را اعلام کردهاند، در حالی که وزارت امنیت داخلی ایالات متحده هفته گذشته یک هیئت ایمنی و امنیت هوش مصنوعی را به این ترکیب اضافه کرد.
با وجود این تاکید شدید بر لزوم ایمنی استفاده از هوش مصنوعی در حملات نظامی، هیچ یک از این بخشها استفاده نظامی از هوش مصنوعی را کنترل نمیکنند. این در حالی است که میدان نبرد امروز، پتانسیل واضح خطرات ایمنی هوش مصنوعی را نشان میدهد.
با توجه به این تاکید شدید بر ایمنی، قابل توجه است که هیچ یک از این ارگان ها استفاده نظامی از هوش مصنوعی را کنترل نمی کنند. در همین حال، میدان نبرد امروزی در حال حاضر پتانسیل خطرات ایمنی واضح هوش مصنوعی را نشان میدهد.
بر اساس تحقیقات اخیر یک مجله اسرائیلی، نیروهای دفاعی اسرائیل از یک برنامه مجهز به هوش مصنوعی به نام لاوندر برای نشانگذاری اهداف خود در حملات پهپادی استفاده میکنند. این سیستم، دادهها و منابع اطلاعاتی را برای شناسایی شبهنظامیان مظنون ترکیب میکند. ظاهرا این برنامه دهها هزار هدف را شناسایی کرده و بمبهای پرتاب شده در غزه منجر به تلفات و خسارات زیادی شد. ارتش اسرائیل چندین بخش از این گزارش را رد میکند.
اهداف برای حملات پهپادی استفاده کرده اند. این سیستم داده ها و منابع اطلاعاتی را برای شناسایی شبه نظامیان مظنون ترکیب می کند. ظاهراً این برنامه دهها هزار هدف را شناسایی کرد و بمبهای پرتاب شده در غزه منجر به تلفات و خسارات جانبی بیش از حد شد. ارتش اسرائیل چندین جنبه از این گزارش را رد می کند.
سرمایهگذاران خطرپذیر بازار تکنولوژی دفاعی را تقویت میکنند. شرکتهای فناوری مشتاق هستند که بخشی از این رونق اخیر باشند و خیلی سریع مزایای هوش مصنوعی را در میدان نبرد بفروشند.
گزارش شده است که مایکروسافت ابزار هوش مصنوعی دالی را در اختیار ارتش ایالات متحده قرار داده است، همچنین شرکت جنجالی تشخیص چهره هوش مصنوعی کلیرویو بابت کمک به اوکراین در شناسایی سربازان روسی با فناوری خود افتخار میکند. شرکت اندوریل هم سیستمهای خودکار میسازد و شرکت هوش مصنوعی شیلد پهپادهای مجهز به هوش مصنوعی را توسعه میدهد. این دو شرکت در اولین دور سرمایهگذاری خود صدها میلیون دلار به دست آوردهاند.
این دولتها هستند که اجازه میدهند بخش تکنولوژی دفاعی از نظارت آنها فرار کند. قانون مهم هوش مصنوعی اتحادیه اروپا در مورد سیستمهای هوش مصنوعی که «بهطور انحصاری برای اهداف نظامی، دفاعی یا امنیت ملی هستند» اعمال نمیشود.
در همین حال فرمان اجرایی کاخ سفید در مورد هوش مصنوعی دارای نکات مهمی برای هوش مصنوعی نظامی بود (اگرچه وزارت دفاع دستورالعملهای داخلی دارد). بهعنوان مثال اجرای بسیاری از دستورات اجرایی کاخ سفید «هنگامی که هوش مصنوعی بهعنوان جزئی از یک سیستم امنیت ملی استفاده میشود» مشمول نیست. و کنگره هیچ اقدامی برای تنظیم استفاده نظامی از این فناوری انجام نداده است.
این امر باعث میشود که دو بلوک اصلی دموکراتیک جهان هیچ قانون الزامآور جدیدی در مورد نوع سیستمهای هوش مصنوعی که ارتش و سرویسهای اطلاعاتی میتوانند استفاده کنند، نداشته باشند. بنابراین آنها فاقد اقتدار اخلاقی برای تشویق سایر کشورها به استفاده از هوش مصنوعی در ارتشهای خود هستند. اعلامیه سیاسی اخیر در مورد «استفاده مسئولانه نظامی از هوش مصنوعی و خودکار» بودن آنها که از سوی تعدادی از کشورها حمایت شد، چیزی بیش از یک اعلامیه نیست.
این سوال مطرح است که بحثهای سیاسی در مورد ایمنی هوش مصنوعی در صورتی که کاربردهای نظامی این فناوری را پوشش ندهد، چقدر معنادار است؟ بهرغم نقص شواهد مبنی بر اینکه سلاحهای مجهز به هوش مصنوعی میتوانند با قوانین بینالمللی در مورد تمایز و تناسب در میدان جنگ مطابقت داشته باشد، آنها در سراسر جهان فروخته میشوند. از آنجایی که برخی از فناوریها دارای کاربرد دوگانه هستند، خطوط میان کاربردهای نظامی و غیرنظامی در حال محو شدن هستند.
تصمیم برای قاعدهمند نکردن استفاده نظامی از هوش مصنوعی هزینه انسانی دارد. صرفنظر از اینکه هوش مصنوعی بهطور سیستماتیک دقیق است یا خیر، اغلب به سیستمهای هوش مصنوعی در زمینههای نظامی اطمینان بیمورد داده میشود، زیر به اشتباه بیطرف تلقی میشوند.
هوش مصنوعی میتواند به تصمیمگیری سریعتر نظامی کند کند، اما همچنین میتواند مستعد خطا باشد و اساسا ممکن است هوش مصنوعی به قوانین بشردوستانه بینالمللی پایبند نباشد. کنترل انسانی بر عملیات در پاسخگو نگه داشتن قانونی بازیگران نبرد بسیار مهم است.
سازمان ملل تلاش کرده این خلا را پر کند. آنتونیو گوترش دبیرکل سازمان ملل برای اولین بار در سال ۲۰۱۸ خواستار ممنوعیت سلاحهای خودکار شد و آنها را از نظر اخلاقی منفور توصیف کرد. بیش از ۱۰۰ کشور علاقهمند به مذاکره و تصویب قوانین بینالمللی جدید برای منع و محدود کردن سیستمهای تسلیحاتی خودکار هستند، اما روسیه، آمریکا، بریتانیا و اسرائیل با یک پیشنهاد الزامآور مخالفت کردهاند که باعث شکست مذاکرات شده است.
اگر کشورها برای محافظت از غیرنظامیان در استفاده نظامی از هوش مصنوعی اقدامی نکنند، نظام بین المللی مبتنی بر قوانین باید تقویت شود.
نهاد مشورتی سطح عالی دبیرکل سازمان ملل در استفاده از هوش مصنوعی یکی از گروههایی است که میتواند ممنوعیت استفادههای مخاطرهآمیز از هوش مصنوعی نظامی را توصیه کند، اما رهبری سیاسی برای اطمینان از رعایت قوانین حیاتی است.
اطمینان از ادامه استانداردهای حقوق بشری و قوانین درگیریهای مسلحانه برای محافظت از غیرنظامیان در عصر جدید جنگ بسیار مهم است. استفاده بی رویه از هوش مصنوعی در میدان نبرد نمی تواند ادامه یابد.
کد خبر 848813 برچسبها هواپیما - پهپاد خبر ویژه هوش مصنوعی