انتشارات زبان علم
حامی کتاب و کتابخوانی
بجنورد
خراسان شمالی
انتشارات زبان علم
حامی کتاب و کتابخوانی
بجنورد
خراسان شمالی
انتشارات زبان علم
حامی کتاب و کتابخوانی
بجنورد
خراسان شمالی
انتشارات زبان علم
حامی کتاب و کتابخوانی
بجنورد
خراسان شمالی
انتشارات زبان علم
حامی کتاب و کتابخوانی
بجنورد
خراسان شمالی

سرویس بینالملل خبرگزاری کتاب ایران (یبنا) - الهه شمس: امروز نوشتن با دست، اغلب به ژستی کوتاه تقلیل یافته است: امضایی لرزان با قلم لمسی در فروشگاه، یا کشیدن انگشت روی صفحه پرداخت. دستخط، در مقایسه با صفحهکلیدهای همیشه در دسترس، شبیه هنری در حال انقراض به نظر میرسد. ما تایپ میکنیم، ایمیل میزنیم، پیام میفرستیم و بیوقفه جلو میرویم. اما پرسش اینجاست: آیا محوشدن نوشتن با دست صرفاً نتیجه طبیعی تحول زبان است، یا چیزی اساسیتر را از دست میدهیم؟
هنری که هنوز کار میکند
نوشتن با دست، دیگر ابزار ضروری ارتباط نیست و دقیقاً به همین دلیل میتواند نقش اصیلتری پیدا کند. امروز دستخط میتواند بیش از یک وسیله انتقال پیام باشد: نوعی کنش بدنی، هماهنگی میان ذهن و حرکت، و شکلی از بیان خلاقانه که هیچ دو نمونه مشابهی ندارد. این مهارت قرار نیست به موزهها سپرده شود. نوشتن با دست میتواند دوباره زنده شود، همچون نخستین عمل هنری انسان؛ ساده، شخصی و در دسترس.
پیش از حروف، نشانهها بودند
پیش از آنکه نوشتن به شکل امروزی درآید، انسانها نشانه میساختند: خط روی شن، نقاشی روی دیواره غار، یا حکاکی روی سنگ. این نشانهها فقط ثبت تصویر نبودند؛ تلاشی برای فهم و ارتباط با جهان بودند. کشیدن درخت یا حیوان، نوعی تماس با معنا و انرژی پیرامون ایجاد میکرد؛ تجربهای که هنوز برای هر کسی که طراحی میکند آشناست.
الفبای امروز هم از دل همین تصاویر بیرون آمده است: گاو، ماهی، دست، قلاب، خانه. این شکلها در گذر زمان ساده شدند، تا حدود ۱۲۰۰ پیش از میلاد که الفبای ۲۲ حرفی فنیقیان شکل گرفت و بعدها به حروف رومی رسید. این نظام نوشتاری برای تجارت کارآمد بود، اما همزمان چیزی بیش از ابزار حسابوکتاب باقی ماند: پلی میان صدای درون و جهان بیرون، میان فکر و حرکت دست بر صفحه.
مغز، نوشتن با دست را جدی میگیرد
مقالهای در نیویورک تایمز با عنوان What’s Lost as Handwriting Fades (چه چیزهایی با کمرنگ شدن دستخط از دست میرود) به پژوهشی در دانشگاه ایندیانا اشاره میکند که نتیجهاش قابل تأمل است.
در این پژوهش، کودکانی که هنوز خواندن و نوشتن نیاموخته بودند، یک حرف را به سه روش اجرا کردند: کشیدن آزاد، دنبال کردن نقطهچین، و فشار دادن کلید روی رایانه. اسکن مغزی نشان داد که تنها در حالت نوشتن آزاد، فعالیت مغز بهطور چشمگیر و در چند ناحیه مختلف افزایش مییابد؛ در حالی که تایپ و حتی رسم نقطهچین، واکنشی بسیار محدود ایجاد میکند.
نتیجه فراتر از کودکان بود. همان مقاله گزارش میدهد دانشآموزانی که با دست یادداشتبرداری میکنند، مطالب را بهتر به خاطر میسپارند و راحتتر ایدهپردازی میکنند. بینظمی و تغییرپذیری دستخط، به شکلی پارادوکسیکال، ذهن را بیدار میکند. بهنظر میرسد نقصها و تفاوتهای دستخط همان چیزی است که جریان خلاقیت را روشن نگه میدارد.
نوشتن با دست، تمرین حضور
فرقی نمیکند از دستخط خود راضی باشید یا از آن فرار کنید؛ نشستن روزانه برای چند دقیقه «نوشتن آهسته» میتواند دریچهای به تمرکز و خلاقیت باز کند. این تمرین، نه برای خوشخط شدن، بلکه برای دیدنِ خود از خلال نوشتن است؛ پذیرفتن یگانگی، کژیها و نقصها.
نوشتن با دست، تجربهای بدنی است: وزن قلم، تماس کاغذ، خستگی خفیف انگشتان. خطی که پیش میرود، شبیه نفس کشیدن است و کلماتی که شکل میگیرند، افکارند که از حالت معلق بیرون میآیند. همین اتصال بدن و ذهن است که نوشتن را به کنشی مراقبهای بدل میکند؛ حضوری کامل در لحظه اکنون.
همزمان قدیم و جدید
مسئله کنار گذاشتن فناوری نیست. رایانهها و جهان دیجیتال بخشی جداییناپذیر از زندگی امروزند. اما نوشتن با دست میتواند نقشِ نیرویی بازدارنده و متعادلکننده در برابر این شتاب دائمی را بازی کند: تمرینی تأملی، راهی برای کندکردن سرعت، و بازگرداندن نوعی پیوند انسانی به تجربه نوشتن. دستخط، بهشکلی ساده اما عمیق، یادآور این است که فکر فقط در صفحه نمایش شکل نمیگیرد؛ گاهی باید از راه دست، کاغذ و مکث عبور کند.
تمرین: قلم را روی کاغذ بگذارید
دو برگ کاغذ و قلمی دلخواه بردارید و بنشینید. بدنتان را حس کنید: دست روی کاغذ، انگشتان روی قلم، پاها روی زمین. بالای صفحه بنویسید: «When I write by hand» (وقتی با دست مینویسم) و ببینید چه چیزی خودش را نشان میدهد؛ خاطرهای قدیمی، حسی جسمانی، یا فقط صدای قلم.
بدون وسواس جملهسازی یا درستنویسی، ادامه دهید. سرعت را کم کنید و بگذارید کلمات بیایند. دو صفحه بنویسید یا ده دقیقه ادامه دهید، سپس نگاه کنید از کجا شروع کردید و به کجا رسیدید. این کار، ادامه همان کنش کهنی است که اندیشه را از «آسمان» به «زمین» میآورد. پیوند زدن این دو، جوهره هنر است.
منبع: Mindful.DECEMBER 10, 2025
غلامحسین دولتآبادی در گفتوگو با خبرنگار خبرگزاری کتاب ایران (ایبنا)، درباره آسیبشناسی سلیقهسازی در بازار کتاب، بیان کرد: سلیقهسازی در بازار کتاب، باید پیش از هر چیز، در حوزههایی چون روانشناسی و رمان بررسی شود. شمار ناشرانی که کتابهای روانشناسی بهاصطلاح زرد، با عناوینی مانند رفتار سمی و خانواده سمی منتشر میکنند، بهطرز قابلتوجهی افزایش پیدا کردهاند. این آثار با وجود اینکه خوراکی نامناسب به مخاطب میدهند، در صدر جریان سلیقهسازی قرار گرفتهاند.
وی با بیان اینکه برای برخی ناشران یا کتابها، تبلیغات شبکهای در فضای مجازی در جریان است، ادامه داد: به عنوان مثال، بعد از معرفی یک کتاب در آموزشگاههای داستاننویسی یا فضاهای مشابه، ناگهان یک اثر پُرفروش میشود؛ علاوه براین حتی گاهی ناشر، دورههای آموزش داستاننویسی برگزار میکند و از شرکتکنندگان میخواهد برای حضور در آن کلاسها، کتابهایی را بخرند و بخوانند.
شبکه پنهان پشت بازار رمان
به گفته مدیر انتشارات یکشنبه، همچنین برگزاری جوایز ادبی از سوی بعضی ناشران در این روند نقش دارد؛ مثلاً تصمیم میگیرند نویسندهای را برنده اعلام کنند تا کتابهایی را که پیشتر روی دستشان مانده، بفروشند. در مسابقهای که خود برگزار کردهاند و خود نیز حامی مالی آن هستند، نتیجه از ابتدا مشخص است؛ بنابراین پیش از اعلام برگزیده، کتابهایش را در ویترین قرار میدهند و مخاطب نیز وقتی میبیند اثری برنده جایزه شده، آن را میخرد.
مخاطبی که حتی نمیداند، محتوای کتاب چیست و آیا اساساً علاقهای به خواندن متن نمایشی دارد یا نه. دولتآبادی، فضای مجازی و سلبریتیها را در سلیقهسازی کتاب بسیار تأثیرگذار دانست و افزود: بهطور اتفاقی در یکی از برنامههای تلویزیونی یا رسانه ملی، مهمان، یکی از نمایشنامههایی را که نشر «یکشنبه» درباره تاریخ قرن بیستم چاپ کرده، معرفی کرد و همین موجب شد، نسخههای زیادی از آن کتاب، فروش برود؛ بنابراین همین برنامه توانست سلیقه مخاطب را جهت بدهد، مخاطبی که حتی نمیداند، محتوای کتاب چیست و آیا اساساً علاقهای به خواندن متن نمایشی دارد یا نه.
این ناشر ادامه داد: حتی من بهعنوان ناشر کتاب، فکر میکنم ممکن است کسی که چندان کتابخوان نیست، پس از خواندن آن پشیمان شده باشد. یکی از دانشجویانم که کتابفروش است، میگفت بسیاری از مشتریان با فهرستی که مهمانان این برنامه معرفی میکنند، برای خرید میآیند. به باور من، مخاطب تصور میکند با مطالعه کتابهای معرفیشده برخی از برنامههای تلویزیونی یا کانالهای مجازی، به سطحی از فرهنگ میرسد.
مدیر انتشارات یکشنبه، با اشاره به دیگر ابزارهای موثر بر ایجاد سلیقه در بازار کتاب، گفت: به عنوان مثال، وقتی نمایشنامهای از فلوریان زلر در ایران روی صحنه میرود، آثارش ناگهان خواهان پیدا اما پس از مدتی این موج فروکش میکند. در عرصه ادبیات داستانی نیز همین روند را میبینیم؛ نویسنده جوانی مطرح میشود، تب او به اصطلاح بالا میگیرد و سپس فروکش میکند و سراغ نفر بعدی میروند. شبکهای پنهان پشت این جریان است. نکته اینجا است که پنج سال پس از پُرفروش شدن کتابهای نویسنده، متوجه میشویم مدتهاست چیزی ننوشته و از نویسندگی دور شده است.
دولتآبادی، با اشاره به «مافیای ادبیات داستانی»، بیان کرد: تصمیم گرفتیم علاوهبر آثار نمایشی، رمان هم منتشر کنیم و واقعاً از هر نظر، کارهای خوبی چاپ کردیم؛ اما فروش آنها بسیار کم بود. متوجه شدیم توان رقابت با این شبکه را نداریم؛ زیرا کتابها ارائه نمیشد، کتابفروشیها آنها را در ویترین یا در قفسههای پُربیننده نمیگذاشتند. این مافیا تنها در ادبیات داستانی نیست؛ در حوزه روانشناسی و ادبیات کودک هم دیده میشود.
وی فضای مجازی را ابزار جدید اثرگذار و جایگزین ویترین کتابفروشیها دانست و بیان کرد: پیش از گسترش فضای مجازی، نوع چیدمان ویترین کتابفروشیها در فروش بسیار اثر داشت؛ اکنون نیز همچنان مهم است، اما تأثیر آن بسیار کمتر شده است.
۷۰ درصد سلیقه مخاطب را اینستاگرام میسازد
مدیر انتشارات یکشنبه ادامه داد: امروزه ۷۰ درصد سلیقه مخاطب را اینستاگرام تعیین میکند و الیته عمق کیفی مطالعه را کاهش میدهد. با این وجود نمیتوان گفت این شیوه در فضای مجازی خطاست؛ باید استفاده درست از شبکههای اجتماعی را آموخت. به گمانم مخاطب باید سطح آگاهی خود را افزایش بدهد و کتابهای ارزشمند بخواند.
به گفته دولتآبادی، انسانها یکبار بیشتر زندگی نمیکنند، پس باید آثاری بخوانند که بر ذهن، مسیر، انتخابها، افکار و جزئیات زندگی، تأثیر بگذارد، نه اینکه فرد دیگری برایشان سلیقه بسازد. باید خودمان درک کنیم که خواندن نمایشنامه یا ادبیات داستانی چه تأثیری در زندگی دارد.
سرویس دینواندیشه خبرگزاری کتاب ایران (ایبنا) – رضا دستجردی: «اخلاق هوش مصنوعی؛ اصول، چالشها و فرصتها» بهقلم لوچیانو فلوریدی فیلسوف برجسته ایتالیایی-بریتانیایی، بنیانگذار «فلسفه اطلاعات» و از تأثیرگذارترین مفسران انقلاب دیجیتال در سال ۲۰۲۳ با ترجمه علیرضا ثقهالاسلامی عضو هیئت علمی پژوهشگاه علوم و فناوری اطلاعات ایران (ایرانداک) از تازههای نشر کرگدن است. برنده نشان شوالیه صلیب اعظم در سال ۲۰۲۲۲ که صاحب آثاری چون «اخلاق در اطلاعات و هوش مصنوعی»، «منطق اطلاعات» و «جان کلام فلسفه اطلاعات» هم هست، در این کتاب، با رویکرد استدلالی منسجم به تبیین مبانی فلسفی اخلاق هوش مصنوعی میپردازد. آنچه در پی میآید ماحصل گفتوگوی ایبنا با علیرضا ثقهالاسلامی است که «ترجمه چکیده مقالات برگزیده اخلاق فناوری اطلاعات»، «درآمدی بر اخلاق اطلاعات: مبانی و مفاهیم اخلاق اطلاعات از دیدگاه لوچیانو فلوریدی» و «واژه نامه تخصصی اخلاق اطلاعات و رایانش» از وی به چاپ رسیده است
بهباور شما، امروزه چرا توجه به اخلاقیات در حوزه هوش مصنوعی اهمیت یافته است؟
در پاسخ به پرسش ابتدا باید متذکر شوم، اهمیت طرح و بررسی موضوعات و مسائل اخلاقی ناشی از توسعه سیستمهای هوش مصنوعی، مربوط به یک دهة اخیر و خصوصاً سالهای اخیر نیست. پیشینة این مسائل و چالشهای اخلاقی به نیمه دوم قرن بیستم بازمیگردد که به نوعی پراکنده حول پیدایش سیستمهای اطلاعاتی و محاسباتی مطرح شدند که عمدتاً از آن با عنوان «اخلاق کامپیوتر» نام میبردند. در پایان قرن بیستم و سالهای آغازین قرن بیستویکم، این مسائل اخلاقی به شکلی منسجمتر حول توسعه تکنولوژیهای اطلاعاتی و ارتباطی و نفوذ گسترده آنها در زندگی روزمره انسانها، از یک سو بسط و گسترش یافتند و از سویی دیگر تدقیق و تصریح بیشتری پیدا کردند، آنچنان که از آن با عناوینی همچون اخلاق سایبری، اخلاق ICT و بهطور کلی اخلاق اطلاعات نام میبرند. و امروزه این چالشهای اخلاقی با اهمیتی مضاعف، بر توسعة سیستمهای هوش مصنوعی و نفوذ روزافزون آنها در عرصههای مختلف زندگی تمرکز بیشتری یافتهاند. اگر بخواهم در چارچوب تأملات فلوریدی دربارة اهمیت مسائل اخلاقی حول توسعه هوش مصنوعی صحبت کنم، باید تمرکز خود را بر مسئله «ظرفیت عاملیت هوش مصنوعی» و توسعه سیستمهای خودگردان مرتبط با آن قرار دهم. به این معنا که عاملهای انسانی با امکان خودمختاری منتسب به آنان، پس از چهار انقلاب علمی (انقلابهای علمی متأثر از کوپرنیک، داروین، فروید، و در نهایت تورینگ) با عاملهای مصنوعی (هوشمندی!) مواجه شدهاند که از امکان خودگردانی (یا به تعبیری تساهلی خودمختاری) قابلتوجهی برخوردارند. این تحول تکنولوژیکی، سرآغاز بسیاری از ملاحظات و نگرانیهای اخلاقی نزد عاملهای انسانی میشود که روزی این عاملهای مصنوعی خودگردان را رقیب خود بپندارند.
چرا هوش مصنوعی در عین توجه به تلاش برای بهبود زندگی روزمره، در عینحال میتواند برای آن مضر باشد؟ و آیا اصولاً میتوان هوش مصنوعی و اخلاق را همراستا دانست؟
اینکه بهرهبرداری از سیستمهای هوش مصنوعی در خدمت بهبود زندگی و خیر اجتماعی در جوامع انسانی قرار بگیرند یا برخلاف آن در خدمت زیان و شر اجتماعی در جوامع انسانی قرار بگیرند، به نوعی مسئله کلاسیک «استفاده دوگانه» (Dual‑use Problem) است. این مسئله صرفاً درباره هوش مصنوعی صادق نیست، بلکه درباره بسیاری از مصنوعات تکنولوژیکی ساده و پیچیده قابل درک است. از «چاقو» (بهعنوان مصنوع تکنولوژیکی ساده) هم میتوان برای جراحیهای پزشکی استفاده کرد که به امکان سلامت و کاهش رنج انسانها منجر میشود و هم میتوان برای قتل انسانها از آن سوءاستفاده کرد. از دستاوردهای «تکنولوژی زیستی» (بهعنوان یک تکنولوژی پیچیده) هم میتوان برای بهروزی زندگی انسانها استفاده کرد و بهطور کلی در خدمت طبیعت استفاده کرد و هم میتوان برای شرّ زیستی از آن سوءاستفاده کرد. پس میتوان گفت بهطور کلی، بهرهبرداری از مصنوعات تکنولوژیکی در مدار استفاده اخلاقی و استفاده غیراخلاقی توسط انسانها قرار میگیرد. در اینجا بههیچعنوان نمیخواهم نفیکننده ارزشبار بودنِ مصنوعات تکنولوژیکی و نقشِ وساطت آنها در بهرهبرداری خیرخواهانه یا شرورانه انسانها از این مصنوعات باشم، بلکه منظور این است که «طراحی، توسعه و استقرار مسئولانه» مصنوعات و محصولات تکنولوژیکی از آغاز ایدهپردازی تا در جریان بهرهبرداری از آنها پیوسته باید خط قرمز انسانها در خدمت به بشریت و طبیعت باشد. این فرایند بهطور کامل درباره ابداع، توسعه و استقرار سیستمهای هوش مصنوعی نیز صادق است. به عنوان مثال، سند «توصیهنامه اخلاق هوش مصنوعی یونسکو (۲۰۲۱)» نمونة ارزنده برای طراحی، سیاستگذاری، توسعه و استقرار مسئولانi سیستمهای هوش مصنوعی است که راهبردهای اخلاقی بسیار قابلتوجهی را برای تمامی ذینفعان دخیل در طراحی و گسترش سیستمهای هوش مصنوعی ارائه میکند. امروزه، اسناد و برنامههای پژوهشی متعددی تحت عنوان «هوش مصنوعی در خدمت خیر اجتماعی» (AI4SG) در سطح ملی و بینالمللی تهیه و تدوین میشود که هدف آن، بهکارگیری و پیشبرد هوش مصنوعی برای پرداختن به مسائل اجتماعی و بهبود رفاه و ارتقای بهروزی در سطح جهانی است. تضمینکنندة اجرای آنها، مسئولیت حرفهای و اخلاقی طراحان، مدیران، مهندسان، توسعهدهندگان و در نهایت استفادهکنندگان از سیستمهای هوش مصنوعی است.
وقتی از «اخلاق هوش مصنوعی» حرف میزنیم، دقیقاً درباره چه چیزی صحبت میکنیم؟
بهطور خلاصه، «اخلاق هوش مصنوعی» زیرشاخهای از اخلاق کاربردی و اخلاق تکنولوژی است که به مسائل و چالشهای اخلاقی در مراحل طراحی، توسعه و استقرار سیستمهای هوش مصنوعی میپردازد. اما اگر بخواهیم با تفصیل بیشتری «اخلاق هوش مصنوعی» را تعریف میکنیم، مناسب است این حوزه مطالعاتی را در سه سطح بررسی کنیم: سطح شناختی (ناظر به شناخت هوش مصنوعی)، سطح ارزیابی (ناظر به ارزیابی هوش مصنوعی)، و سطح تجویزی (ناظر به تجویز رهنمودهای اخلاقی). در سطح شناختی، به معرفی ماهیت هوش مصنوعی و چرایی سازوکار آن میپردازیم. در این سطح، تأملات فلسفی در مواجهه با هوش مصنوعی بسیار راهگشاست و زیربنای تبیینی و تحلیلی مناسبی برای شناخت آن فراهم میکند. در سطح ارزیابی، مسائل و موضوعات اخلاقی ناشی از توسعه و استقرار هوش مصنوعی در جوامع انسانی (همچون نقض حریم خصوصی؛ نظارت فراگیر هوشمند؛ سوگیری سیستمهای تصمیمگیری؛ کژرفتاریهای آموزشی و پژوهشی در استفاده از مدلهای زبانی بزرگ ( LLMها)، و مسائلی دیگر) را شناسایی و اصول اخلاقی مناسب (عدم آسیبرسانی؛ خیرخواهی؛ عدالت؛ خودمختاری؛ توضیحپذیری) برای بررسی مسائل اخلاقی مذکور را گردآوری میکنیم. و در سطح تجویزی، در چارچوب اصول اخلاقی گردآوریشده، تدابیر و رهنمودهای اخلاقی مقتضی برای مواجهه با مسائل و موضوعات اخلاقی هوش مصنوعی را تجویز میکنیم. آنچه به گمان من، کتاب «اخلاق هوش مصنوعی» فلوریدی را نسبت به بسیاری از آثار همعنوان در این حوزه مطالعاتی متمایز میکند، تأملات فلسفی و تحلیلیِ منسجم وی در سطح شناخت هوش مصنوعی است که زیربنای مفهومی لازم برای ارزیابی هوش مصنوعی را فراهم میآورد. هر چند وی در این اثر به سطح تجویز رهنمودهای اخلاقی نمیپردازد، اما با ارجاعات متعدد به تدابیر و رهنمودهای مندرج در اسناد بینالمللی اخلاق هوش مصنوعی، آنها را برای خوانندگان فهمپذیرتر و موجّهتر میکند.
کدام وجه در حیات امروز باید بیشتر نگران استفاده از هوش مصنوعی باشد؟
حقیقتاً پاسخ به این پرسش بسیار دشوار است. آنچنان که پیشتر اشاره کردم، امروزه هوش مصنوعی و بهرهبرداری از مصنوعات این تکنولوژیها تمامی عرصههای فردی و اجتماعی جوامع انسانی توسعهیافته را تحت تأثیر و نفوذ خود قرار داده است. اینکه درکشور ما در برخی حوزهها همچون زمینههای پژوهشی و آموزشی متأثر از توسعة LLMها یا دوربینهای هوشمند و نظارت فراگیر آنها و بعضاً نقض حریم خصوصی شهروندان، محل توجه بیشتری واقع شده است، بهدلیل نگرانی بیشتر نسبت به شدت نفوذ این ابزارهای تکنولوژیکی در این حوزهها نیست، بلکه بهدلیل ناکامی و عدم توسعهیافتگی ما در بسیاری از عرصههای زندگی برای بهرهبرداری از آنهاست. در بسیاری از کشورهای توسعهیافته که فرصت گسترش و بهرهبرداری از این تکنولوژیها در حوزههایی همچون حملونقل هوشمند، سلامت هوشمند، پلیس هوشمند، آموزش هوشمند، و بسیاری از این موارد تحقق یافته یا در حال تکامل است، نگرانی و ملاحظات اجتماعی و اخلاقی در تمامی این حوزهها وجود دارد. و دقیقاً به همین خاطر است که در این کشورها، به اهمیت و ضرورت پرداختن به حوزه مطالعاتی اخلاق هوش مصنوعی بیشتر واقف شدهاند و بهخوبی درک کردهاند که تعلل و تأخیر در اتخاذ سیاستها و تدابیر مقتضی برای تحقق هوش مصنوعی در خدمت خیر اجتماعی، پیامدهای بعضاً جبرانناپذیری چه برای جوامع انسانی و چه برای محیطزیست به دنبال خواهد داشت.
آیا باید از هوش مصنوعی هراس داشت یا لازم است یاد بگیریم با آن زندگی کنیم؟
بهطور کلی، تجربه بشری خصوصاً پس از انقلاب صنعتی و رشد پُرشتاب و توسعه روزافزون تکنولوژیها و مصنوعات آن نشان داده است، قرار گرفتن در دوقطبی تکنوفوبیا (تکنولوژیهَراسی) و تکنوفیلیا (تکنولوژیسِتایی)، اقدامی چندان خردمندانه نیست. بیتردید امروزه تصور سفر از شهر یا کشوری به شهر یا کشوری دیگر و در فرصتی محدود، بدون وجود سیستمهای تکنولوژیکی حملونقل همچون سیستم هوانوردی یا راهآهن، احتمالاً ناممکن خواهد بود یا تصور تعاملات و ارتباطات انسانی از راهدور بدون وجود سیستمهای ICT تقریباً ناممکن شده است. هوش مصنوعی و امکانات آن پس از توسعه و استقرار بیشتر در جوامع انسانی از این قاعده مستثنی نیست. پس به تعبیر اندیشمندانه فلوریدی، همانطور که به مرور زمان یاد گرفتیم که بهجز عاملهای انسانی در طبیعت و سپهر زیستی، دیگر موجودات و عاملهای زیستی همچون حیوانات و گیاهان نیز بهعنوان موجوداتِ زیستی دارای شأن و کرامتِ اخلاقی هستند و جهان بدون آنها محیطزیستمان را به مخاطره میاندازد، امروز نیز باید یاد بگیریم در سپهر اطلاعاتی (که سپهر زیستی زیرمجموعة آن شدهاست)، بهجز عاملهای انسانی و زیستی، عاملهای مصنوعی نیز بهعنوان موجودات اطلاعاتی دارای شأن و کرامتِ اخلاقی خاص و حداقلی هستند. آنها اگرچه از شأن اخلاقی انسانی و حقوق متصور بر آن برخوردار نیستند، اما بهخاطر عاملیت و خودگردانی (یا بهتعبیری تساهلی خودمختاری) عمل محدودی که دارند و میتوانند بهطور مستقل تصمیمگیری و اثرگذاری کنند و در سپهر اطلاعاتی کنشورزی نماید، از شأن اخلاقی صفر برخوردار نیستند. در صورت تحقق چنین نگرشی است که عاملهای انسانی در کنار همزیستی با عاملهای غیرانسانی میتوانند بهنحوی مسئولانه، به طراحی، توسعه و استقرار عاملهای مصنوعی همّت گمارند و زیستمحیط ترکیبی دیجیتالمان (پیوند محیطزیست و محیطدیجیتال) را شکوفا و ارتقای اخلاقی بخشند.

آیا سپردن تصمیمهای مهم زندگی به هوش مصنوعی کار درستی است؟
اجازه دهید پاسخ به این سؤال را با توضیحی دربارة یک مفهوم نوظهور آغاز کنم. امروزه هم به لحاظ فنی و هم به لحاظ اخلاقی، از پروژهای تحت عنوان «هوش مصنوعی توضیحپذیر» (Explainable Artificial Intelligence: XAI) نام میبرند. در واقع، هوش مصنوعی توضیحپذیر مجموعهای از روشها، مدلها و چارچوبهاست که در نظر دارد تصمیمها و خروجیهای سیستمهای هوش مصنوعی را (خصوصاً تصمیمها و خروجیهایی که در زندگی انسانها دارای اهمیت و حساسیت بیشتری هستند) برای انسان قابل فهم، قابل بازسازی و قابل پرسشگری نماید. درک اینکه چگونه یک سیستم هوش مصنوعی به یک تصمیم یا خروجی خاص منجر شدهاست، چه از نظر فنی و چه از اخلاقی، دستاوردهای بسیار دارد. بنابراین، توضیحپذیری هوش مصنوعی میتواند به توسعهدهندگان کمک کند تا از تصمیمگیری و خروجی مورد نظر اطمینان حاصل کنند. امروزه در حوزه اخلاق هوش مصنوعی توضیحپذیری سیستمهای هوشمند از اهمیت بسیار زیادی برخودار است، بهطوری که در بسیاری از اسناد منطقهای و بینالمللی اخلاق هوش مصنوعی همچون «اصول اخلاقی بیانیه هوش مصنوعی، رباتیک و سیستمهای خودگردان کمیسیون اروپا»(HLEGAI, 2019) و «توصیهنامه اخلاق هوش مصنوعی کنفرانس عمومی یونسکو» (UNESCO, 2021) به این موضوع بهعنوان یک اصل اخلاقی اشاره میشود و سپردن تصمیمهای مهم زندگی را مشروط به تحقق این اصل تعریف میکنند. در کتاب «اخلاق هوش مصنوعی» فلوریدی، در کنار چهار اصل اخلاقی خیرخواهی، عدم آسیبرسانی، خودمختاری، عدالت، اصل اخلاقی «توضیحپذیری» بهعنوان یک اصل توانمندساز جدید برای هوش مصنوعی معرفی میشود. تحت این اصل اخلاقی بیان میشود که هوش مصنوعی در خدمت خیر اجتماعی، دارای فرایندهایی شفاف است، بهنحوی که قابلیتها و هدف این سیستمها را بهطور شفاف به یکدیگر مرتبط میکند؛ و تصمیمات این سیستمها تا حد امکان برای افرادی که به صورت مستقیم یا غیرمستقیم تحت تأثیر آنها قرار میگیرند، قابل توضیح است.
آیا اخلاق هوش مصنوعی بدون قانون و نظارت جدی معنایی دارد؟
بیتردید اخلاق هوش مصنوعی، بدون قانون و نظارت جدی از ضمانت اجرایی برخوردار نیست. اما این سخن بدین معنا نیست که اخلاق هوش مصنوعی را به قانون و نظارت صرف تقلیل دهیم. فلوریدی در کتاب خود سه قلمرو حکمرانی دیجیتال (Digital Governance)، مقررات یا تنظیمگری دیجیتال (Digital Regulation)، و اخلاق دیجیتال (Digital Ethics) را برای تحقق هوش مصنوعی خیرخواه و در خدمت جامعه معرفی میکند. وی قلمرو حکمرانی دیجیتال را صرفاً متمرکز بر دولت و حاکمیت نمیپندارد، بلکه آن را یک حکمرانی چندسطحی و چندکنشگری (از قبیل دولتها، شرکتها، دانشگاهها، جامعه مدنی و مواردی مشابه) نشان میدهد که شیوة ایجاد و اجرای سیاستها، رویهها و استانداردها را برای توسعه، استفاده و مدیریت صحیح سپهر اطلاعاتی (که دربردارندة عاملهای انسانی و مصنوعی است) تحقق میبخشند. او مقررات یا تنظیمگری دیجیتال را ابزار حقوقیِ صرف برای مهار این تکنولوژی تلقی نمیکند، بلکه آن را ترجمه الزامآورِ اخلاق دیجیتال (و در اینجا اخلاق هوش مصنوعی) به قانون و نظارت نهادی با هدف شکوفایی و بهروزی سپهر اطلاعاتی بیان میکند. و در نهایت اخلاق دیجیتال، چارچوبی هنجاری است که نشان دهد چه چیزی در سپهر اطلاعاتی از نظر اخلاقی خیر یا شرّ است و چگونه میتوان از کیفیت، یکپارچگی و شکوفایی سپهر اطلاعاتی حفاظت کرد و آن را ارتقا بخشید. اگرچه این سه رویکرد هنجاری متفاوت هستند، اما مکمل یکدیگرند و نباید به یکدیگر فروکاسته شوند و میتوان آن را سه دایرهای در نظر گرفت که دو به دو در برخی نواحی و هر سه در یک ناحیه مشترک هستند. میتوان نسبت این سه قلمرو را به این صورت خلاصه کرد: اخلاق دیجیتال تعیین میکند چه باید باشد؛ مقررات دیجیتال بخشی از اخلاق دیجیتال را به قوانین حقوقی ترجمه میکند؛ و حکمرانی دیجیتال امکان تحقق و تداوم اخلاق و حقوق آن را فراهم میکند. چنین الگویی برای تعامل اخلاق، حقوق و حکمرانی هوش مصنوعی نیز صادق است. در «مقررات عمومی حفاظت از داده اتحادیه اروپا» (GDPR) که تجسَد اخلاق حریم خصوصی و دادههای شخصی است و همچنین «قانون هوش مصنوعی اتحادیه اروپا» (EU AI Act) که تجسَد اخلاق هوش مصنوعی است، ردّپای این الگو را میتوان دنبال کرد. بنابراین میتوان گفت اولاً تحقق این سه قلمرو بدون همراهی با یکدیگر، اگر نگوییم امکانپذیر نیست، دستکم بسیار دشوار است، و ثانیاً فروکاستنِ قلمرو حکمرانی به نهاد رسمی قدرت، فروکاستنِ قلمرو مقررات و تنظیمگری به نهاد حقوقی متعارف و سنتی، و فروکاستنِ قلمرو اخلاق به آموزههای اخلاقی نامنسجم و فاقدِ دیدگاهی نظری، جز سردرگمی و فرصتسوزی در تحقق هوش مصنوعی خوب و در خدمت خیر اجتماعی، برایمان دستاوردی نخواهد داشت