شما طوطی نيستيد، چت‌جی‌پی‌تی هم انسان نيست

 

معمولاً اینطور تصور می‌کنیم که ربات‌ها هر چه در حرکات، واکنش‌ها یا جواب‌هایشان به رفتار طبیعی یک انسان واقعی نزدیک‌تر شوند، ربات‌های بهتر یا پیشرفته‌تری محسوب می‌شوند. بنابراین سازندگان ربات‌ها تمایل فراوانی به هر چه شبیه‌تر کردن ساخته‌هایشان به انسان‌ها دارند. بااین‌حال، بسیاری از متخصصان اخلاق فناوری دربارۀ این موضوع تردید دارند. آیا واقعاً خوب است که مرز میان انسان‌ها و ربات‌ها کمرنگ شوند؟ انسان فرض‌کردن ربات‌ها دقیقاً چه پیامدهایی یا آسیب‌هایی را می‌تواند به دنبال بیاورد؟

این موضوع وقتی پیچیده‌تر می‌شود که بدانیم در میان ما آدم‌ها نیز تمایلِ زیادی برای «انسان‌وار» قلمداد کردن موجودات غیرانسانی وجود دارد، چه پای حیوانات در میان باشد، چه ربات‌ها یا حتی عروسک‌ها و مجسمه‌ها.

این روزها با فراگیرشدن بحث از چت جی‌پی‌تی و توانایی‌های خارق‌العادۀ زبانی آن، این مسئله بار دیگر به میان آمده است: امیلی بِندِر، زبان‌شناس مشهوری که یکی از خبره‌ترین متخصصانِ کاربرد زبان در هوش‌های مصنوعی است، می‌پرسد: چرا چت جی‌پی‌تی باید مثل آدم‌های معمولی حرف بزند؟ آیا چنین قابلیتی، به جز «فریب‌دادن» کاربران فایدۀ دیگری هم دارد؟ بِندر می‌نویسد: فرض ما این است که وقتی کسی حرف می‌زند، قصد دارد پیامی به ما منتقل کند و مسئولیت حرفش را هم می‌پذیرد، اما ربات‌ها درکی از حرفی که می‌زنند و پیامدهایش ندارند.

«ما دنیا را تغییر داده‌ایم. ما یاد گرفته‌ایم ماشین‌هایی بسازیم که به‌طور مکانیکی متن تولید کنند. اما هنوز یاد نگرفته‌ایم که چطور بین ماشین و ذهن انسان تمایز قائل شویم».

از نظر بِندِر «چت‌بات‌هایی که ما به‌راحتی آن‌ها را با انسان اشتباه می‌گیریم، صرفاً بامزه یا اعصاب‌‌خردکن نیستند.» بلکه مبهم‌شدن مرز میان ربات و انسان، می‌تواند آسیب‌های جدی در بر داشته باشد. یا اساساً منجر به از هم گسستن جامعه شود. یکی از مثال‌های ساده‌اش، مسئلۀ «انسان‌های جعلی» است. دنیل دنت، فیلسوف مشهور، می‌نویسد: ما نمی‌توانیم در دنیایی با «افراد جعلی» زندگی کنیم. از وقتی پول وجود داشته، جعل پول نوعی خراب‌کاری اجتماعی قلمداد می‌شد که مجازات آن اعدام، درآوردن احشاء و شقه‌شقه‌کردن بود. بحث افراد جعلی هم دست‌کم به همین اندازه جدی است.

از نظر دنت رباتی که می‌تواند مثل یک انسان حرف بزند، فقط یک قدم تا سلاح خطرناکی که در جنگ‌های بیولوژیک یا هسته‌ای می‌تواند به کار گرفته شود، فاصله دارد.

بِندِر می‌گوید من یک قانون دارم: «کمرنگ‌کردن مرزها ممنوع!» اگر این قانون را بپذیرید، آنگاه خیلی راحت‌تر می‌توانید از شرکت‌های بزرگ تکنولوژی که برای توسعۀ هر چه بیشتر هوش مصنوعی سر و دست می‌شکنند، بپرسید: این کارها برای چیست؟ اگر این ابزارها ساخته می‌شوند تا زندگی ما انسان‌ها را راحت‌تر کنند، پس چرا اصرار دارید آن‌ها را مثل دیگر انسان‌ها ببینیم؟ به آن‌ها علاقه‌مند و وابسته شویم؟ یا وقتی آن‌ها را از دست می‌دهیم، فکر کنیم یک دوست را از دست داده‌ایم؟ چرا ابزارها را در قلمرویی آن‌سوی انسانیت نگه نمی‌دارید؟

هیچ نظری هنوز ثبت نشده است
نظر دهید

آدرس پست الکترونیک شما در این سایت آشکار نخواهد شد.

URL شما نمایش داده خواهد شد.
بدعالی
This is a captcha-picture. It is used to prevent mass-access by robots.
  • رسانه شو

    سواد رسانه یا سواد رسانه ای همان دانشی است که همه ما در هر لحظه از زندگی به آن نیاز داریم ، تک تک لحظات زندگی انسان امروزی درگیر پیام های مختلف حقیقی و مجازیست و این پیام ها زندگی و سبک زندگی ما را تغییر خواهند داد. تا بحال از رسانه و شبکه های مجازی هرچه گفتیم و شنیدیم فقط از آسیب ها بود، اما واقعا، انصافا! فرصت های این شبکه ها را اصلا می شناسیم؟ آینده خوبی که می توانیم با همین ابزار برای خود رقم بزنیم را می دانیم؟! همه اینها سوالایی است که پاسخ آنها در دو کلمه خلاصه می شود: سواد رسانه تا دیر نشده، سواد رسانه ای را یاد بگیریم و به دیگران یاد بدهیم.
  • اوقات شرعی

    امروز: جمعه 02 آذر 1403
    اوقات شرعی به افق:
    • اذان صبح اذان صبح:
    • طلوع آفتاب طلوع آفتاب:
    • اذان ظهر اذان ظهر:
    • غروب آفتاب غروب آفتاب:
    • اذان مغرب اذان مغرب:
    • نیمه شب شرعی نیمه شب شرعی:
  • آذر 1403
     << <   > >>
              1 2
    3 4 5 6 7 8 9
    10 11 12 13 14 15 16
    17 18 19 20 21 22 23
    24 25 26 27 28 29 30
  • کاربران آنلاین

    • نورفشان
  • آمار

    • امروز: 2
    • دیروز:
    • 7 روز قبل: 1877
    • 1 ماه قبل: 3904
    • کل بازدیدها: 99079