از تحریف تا تبیین واقعیت‌ها به کمک هوش‌مصنوعی

استاد تمام دانشگاه علامه طباطبایی گفت: همه کاربران به یک اندازه از سواد و قدرت دیجیتال بهره‎مند نیستند. در طراحی هوش مصنوعی باید به این نابرابری‌ها توجه شود.

به گزارش پایگاه خبری تکانه، فرزانه صدقی: دکتر هادی خانیکی، استاد تمام و عضو هیات علمی دانشگاه علامه طباطبایی در پنل هوش مصنوعی، فناوری و کلان داده‌ها در همایش« هوش مصنوعی: ارتباطات انسان- ماشین و آینده من» که در سالن شریعتی دانشکده علوم اجتماعی دانشگاه تهران برگزار شد، گفت‌وگو را کانون هر مساله اجتماعی، فرهنگی و سیاسی، فناورانه و علمی عنوان کرد و درباره ارتباط انسان با ماشین گفت: در حال حاضر گفت‌و‌گو با هوش‌مصنوعی ممکن است؛ ممتنع نیست اما ملاحظاتی به همراه دارد. اگر هوش‌مصنوعی را صرفا به تبادل واژگان و پرسش و پاسخ‌های مکانیکی محدود نکنیم و به عنوان فرایند معنا آفرینی بنگریم، می‌توانیم بگوییم که گفتگو با هوش مصنوعی امکان دارد. هوش‌مصنوعی اکنون در نسخه‌های پیشرفته‌اش(ChatGPT) قابلیت‌های زبانی، تولید پاسخ و شبیه‌سازی گفتگویی دارد اما فاقد ادراک انسانی و تجربه زیسته، مسولیت اخلاقی است.

وی افزود: اگر می‌خواهیم گفتگویی از جنس خاص بین انسان و ابزار رخ دهد باید سطوح مختلفی را در نظر بگیرم. یک، سطح تعاملی است. در این سطح کاربر و هوش‌مصنوعی در کنش و واکنش قرار می‌گیرند. کاربر باید دقیق و شفاف پرسش داشته باشد و پاسخ  را سنجیده و نقادانه ارزیابی کند. کیفیت به مهارت پرسشگری و سواد دیجیتالی انسان در این سطح اهمیت دارد.

وی تصریح کرد: سطح دوم، ملاک از گفتگو تنها گرفتن پاسخ نیست. باز اندیشی در گرفتن پاسخ اهمیت دارد. گفتگو یک فرایند، مسیر و نقطه هدف نیست. اگر هوش‌مصنوعی ما را وادار کند تا بهتر ببینیم و دقیق‌تر بپرسیم، گفتگو رخ داده است. در واقع هوش مصنوعی آیینه است که از آن برای فهم خودمان و دیگری بهره می‎بریم.

این استاد دانشگاه بیان کرد: سطح سوم، انتقادی است. این سطح به عرصه اخلاق و سیاست دانش وارد می‌شود. پژوهشگر دیگر نمی‌تواند مصرف کننده صرف پاسخ‌های ماشینی باشد بلکه باید ناظر، منتقد و پرسشگر خود ابزار هم باشد. این سطح گفتگو به بازنگری در مرز انسان و ماشین، دانش و قدرت و اخلاق و فناوری منجر می‌شود.

خانیکی به مبانی و الزامات گفتگوی هوش‌مصنوعی پرداخت و گفت: نخستین الزام، داشتن سواد ارتباطی و انتقادی است. باید بتوانیم لایه‌های پنهان در پاسخ‌های ماشینی را مشاهده کنیم. دوم الزام شفاف و اخلاق پژوهش است یعنی انسان کجا می‌اندیشد و کجا ماشین پردازش می‌کند؟ پنهان کردن هوش‌مصنوعی نوعی گمراه سازی است. مسوولیت گفتگو یعنی شفافیت در فرایند تولید دانش.

وی یادآورشد: سومین الزام، رعایت حدود ابزار و کرامت انسانی است؛ گفتگو نباید به سلطه ابزار بر انسان بینجامد. ماشین نباید جای خلاقیت، داوری و تجربه زیسته و تخلیل انسانی را بگیرد. باید ابزار را شناخت اما اسیر آن نشد. چهارمین الزام، درک ناترازی‌های ارتباطی و مسوولیت در قبال آن است. همه کاربران به یک اندازه از سواد و قدرت دیجیتال بهره‌‎مند نیستند. در طراحی هوش مصنوعی باید به این نابرابری‌ها توجه شود.

روایتی مثبت و منفی از هوش مصنوعی

در ادامه این پنل دکتر محمد رهبری، مشاور وزیر ارتباطات و در امور فناوری و نوآوری اجتماعی داده محور با موضوع «قدرت، داده و الگوریتم: آینده روایت‌سازی و تاثیرگذاری در عصر هوش مصنوعی» گفت: تاریخ را فاتحان (به تعبیری صاحبان قدرت) روایت کرده‌اند اما در دوران جدید و عصر هوش مصنوعی_دورانی که با وفور داده و کلان داده‌ها روبرو هستیم_ روایتگری‌ها جنس متفاوت‎تری از دوران گذشته معنا پیدا کرده است.

وی افزود: اهمیت روایت باعث می‌شود قدرتمندان و فاتحان بر افکار عمومی تاثیر بگذارند و نظر عموم را به خود جلب کنند. روایت را باید شکل‌دهی به اطلاعات برای ایجاد ارتباط عاطفی و فکری با مخاطبان تعریف کرد؛ از داده و اطلاعات موجود استفاده و روایت‎گری می‌کند تا افکار عمومی را تحت تاثیر قرار دهد.

وی اظهارکرد: روایگری نیازمند داده و اطلاعات است و امروزه این داده و اطلاعات قابل قیاس با داده‌های دوران مختلف تاریخ نیست. اکنون داده‌هایی در شبکه‌های اجتماعی ثبت می‏‌کنیم که پیش از این امکانش وجود نداشت. حتی مکث کردن یا گفتگوهای ما در شبکه‌های اجتماعی ثبت و تبدیل به داده می‌شوند و برای تجاری‌سازی تحقیقات و موارد دیگر مورد استفاده الگوریتم‌ها قرار می‌گیرد. جستجوهایمان در صفحه گوگل، سوالات و نگرانی‌هایی که تاکنون با هیچکس در میان نگذاشته‌ایم، همگی ثبت می‌شوند. پیش از این هیچ وقت این اطلاعات در دسترس نبود. صاحبان کسب و کار این میزان از اطلاعات را در دست نداشتند.

وی بیان کرد: این میزان از داده‌ها و اطلاعات همگی می‌تواند در خدمت روایت‌سازی قرار گیرد. این روایت برای اینکه ارتباط فکری و عاطفی برقرار کند باید در شکل یک قصه و فرم جذاب روایت شود. امروزه با کمک هوش مصنوعی این شکل‌های جذاب خیلی راحت‌تر تولید می‌شود.

وی یادآورشد: فهم ما از واقعیت وابسته به تعاملات اجتماعی و ارتباط‌مان با دیگران است. امروزه بسیاری از تعاملات ما درون شبکه‌های اجتماعی رخ می‎دهد. جایی که الگوریتم‌ها، ربات‌ها و عامل‌های هوشمند فعال هستند. این الگوریتم‌ها و ربات‌ها بر فهم ما بر واقعیت اثر می‌گذارند و این الگوریتم‌ها هستند که عادات و سلیقه‌های ما را شکل می‌دهند. الگوریتم دیکته می‌کند انسان چه کاری انجام دهد تا لایک بیشتری بگیرد یا فالور بیشتری جذب کند.

مشاور وزیر ارتباطات و در امور فناوری و نوآوری اجتماعی داده محور گفت: الگوریتم‌ها از داده‌های جامعه استفاده می‌کنند و همزمان یک روایت و تبلیغات هدفمند و یک ایده شخصی‌سازی شده را برای افراد ارائه می‌کنند. ادارک ما از واقعیت تحت تاثیر این الگوریتم‌ها و ایجنت‌های هوشمند قرار می‌گیرد. از سوی دیگر این الگوریتم‌ها و ایجنت‌های هوشمند جوری طراحی شده‎اند که به ما بگویند به چه چیزی فکر کنیم  یا در رابطه با چه چیزی فکر نکنیم.

وی افزود: دو سناریوی بدبینانه و خوش بینانه می‌توان از آینده متصور شد. در سناریوی بدبینانه، ایجنت‌های هوشمند واقعیت را تشریح می‌کنند که ممکن است با واقعیت بیرونی متفاوت باشد. فهم ما نیز متاثر از واقعیت هوش مصنوعی است. به عنوان مثال سوالی از هوش مصنوعی می‌پرسیم و مالکان و صاحبان هوش مصنوعی اطلاعاتی هدفمند به ما ارائه می‌دهند. در حالت خوش‎بینانه، استفاده از هوش مصنوعی همه گیر است و دسترسی و گسترش آن باعث می‌شود اثرات منفی هوش مصنوعی کاهش پیدا کند و تولیدات هوشمند تصویر و ویدیو از انحصار گروهی خاص خارج شود.

لزوم افزایش سواد رسانه‌ای در جامعه

دکتر رامین رامیار، دکترای مدیریت فناوری و اطلاعات و پژوهشگر کسب و کار هوشمند با موضوع هوش مصنوعی، اخبار جعلی و علوم شناختی نیز در این پنل گفت: بدیهی است که جعل کردن اخبار می‌تواند خطرات بیشماری برای جامعه ایجاد کند و نقشی در انحراف و گمراهی افراد  داشته باشد. در دنیای دیجیتال و عصر هوش مصنوعی این گمراهی آسان‌تر شده است.

وی افزود: از دوران گذشته تاکنون همواره جوامعی با استفاده از ابزارها آفند( حمله یا تهاجم) و در سوی دیگر عده‌ای با بهره‌گیری از امکانات و ابزارهایشان پدافند موفقی داشته‌اند و به خنثی‌سازی اقدامات دشمن می‌‏پردازند. در هوش مصنوعی نیز همینطور است. عده‌ای سعی دارند با استفاده از این ابزار و داده‌های بزرگی که توسط تصویر و ویدیو ایجاد می‌شود، اخبار جعلی را افزایش دهند و در مقابل عده‌ای هم مانع انتشار این اخبار می‌شوند.

وی اظهارکرد: استفاده از هوش مصنوعی برای هدفمندکردن کاربران است. همگی باعنوان پول شویی آشنا هستیم اما راجع به اطلاعات شویی کمتر شنیده‌ایم. اطلاعات شویی یکی از ابزارهای هوش مصنوعی است که کمک می‌‎کند اطلاعات _همانند پول شویی که پول کثیف لا به لای پول تمیز غیب و وارد چرخه اقتصاد می‌شود_تکثیر پیدا کند. این مساله باعث می‌شود در آسیب پذیری که در شناخت انسان وجود دارد، سوء استفاده شود.

این پژوهشگر عنوان کرد: دستکاری دیجیتالی افراد به معنی لغوی نقض انسان‌ها که استفاده می‌شود مربوط به آینده نیست اکنون نیز انجام می شود. از مدل زبانی بزرگ (LLM) برای تولید متن‌ها و بزرگ نمایی خیلی چیزها استفاده می‌شود در مقابل می‌توان با کمک تکنولوژی ماشین لرنینگ(یادگیری ماشین) اتفاقات جعلی را شناسایی کنیم. مطالعات نشان داده‌اند ترکیب عکس و متن بیشترین موفقیت در جعلی بودن خبر را دارد و ترکیب یوزر پروفایل و کانتنت کمترین اثرگذاری را دارد در این میان افزایش سواد رسانه‌ای از اهمیت زیادی برخوردار است. سواد رسانه‌ای صرفا نماید نمایشی و برگزاری همایش باشد باید به عنوان مهارت جدی فرا گرفته شود.

ضرورت گنجانده شدن مفاهیم جدید فنی در دروس دانشگاهی

دکتر مرضیه ادهم، دکترای ارتباطات دانشگاه علامه طباطبایی نیز در این پنل در رابطه با موضوع « هوش مصنوعی به پایان نامه من کمک می‌کند؟» گفت: دانشجویان علوم اجتماعی باید پیشرو جامعه در رفع مسائل جامع باشند. این دانشجویان باید پیش‌بینی کنند چه مسیری به کجا ختم می‌شود یا چه اتفاق فرهنگی یا تاثیرگذاری بین متغیرها وجود دارد.  در تحصیلات تکمیلی پس از مطالعه، تحلیل و استنتاج باید برای یک سری کارهای کلان و انبوه  و تکراری به هوش مصنوعی مراجعه کنند. اطلاعاتی که اکنون هوش مصنوعی ارائه می‌دهد برخواسته از جریان اصلی است. این افراد باید مسیر پایان نامه‌‎شان را به گونه‌ای طراحی کنند که از هوش مصنوعی به عنوان ابزار استفاده کنند.

وی افزود: اگر می‌خواهیم در حوزه هوش مصنوعی تاثیرگذار باشیم و دانشکده علوم اجتماعی در دانشگاه به عنوان نهاد زنده در محاسبات حکمرانی و سیاستگذاری و بازار نقش داشته باشد باید نگاه بین رشته‌ای داشته باشیم و مفاهیم فنی و تکنولوژی‌های نوین را وارد سرفصل‌های درسی‌مان کنیم.

گفتنی است، همایش یک روزه« هوش مصنوعی: ارتباطات انسان- ماشین و آینده من» با حمایت انجمن ایرانی مطالعات فرهنگی و ارتباطات و با همکاری وزارت ارتباطات و فناوری اطلاعات به مناسبت روز جهانی ارتباطات سوم خرداد 1404 در دانشکده علوم اجتماعی دانشگاه تهران برگزار شد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *