استخدامهای دولتی با هوش مصنوعی
آیااستخدامهای دولتی با هوش مصنوعی، عادلانه است؟
هوش مصنوعی وارد سیستمهای استخدام دولتی شده و قرار است همهچیز را «عادلانهتر» کند. اما وقتی هیچکس نمیداند این الگوریتمها چطور تصمیم میگیرند، وقتی نمیشود فهمید چرا رزومهای رد شده، و وقتی حق اعتراض هم وجود ندارد، سخت میشود اسم این روند را شفاف گذاشت. مخصوصاً وقتی طرف مقابل، یک سیستم بیچهره است که پاسخ نمیدهد، قضاوت میکند و حذف میکند.

به گزارش بانک اول خبرهایی که از چند ماه قبل منتشر شده، نشان میدهد بعضی از وزارتخانهها، نهادهای استخدامی و حتی بعضی دانشگاهها شروع به استفاده از هوش مصنوعی برای بررسی اولیه متقاضیان کردهاند. یعنی قبل از اینکه اصلاً انسانی رزومهات را ببیند، یک سیستم ماشینی دربارهات تصمیم میگیرد. سیستمهایی که قرار است «بیطرف» باشند، «شفاف» و «استاندارد» عمل کنند. اما چیزی که فعلاً در عمل دیده میشود، بیشتر شبیه حذف بیصدا و بدون توضیح است.
در یکی از نهادهای دولتی، الگوریتمهایی در حال تست هستند که نه فقط به مدرک تحصیلی و سوابق کاری نگاه میکنند، بلکه چیزهایی مثل محل سکونت، دانشگاه محل تحصیل، حتی نحوه نوشتن رزومه را بهصورت «امتیاز منفی یا مثبت» تفسیر میکنند. اما هیچکس نمیداند این امتیازها چطور تعریف شدهاند، چه کسی الگوریتم را نوشته، و اگر اشتباه کند، چه کسی مسئول است.
چیزی از عدالت باقی نمیماند وقتی حذف بیدلیل قانونی میشود
عدالت در استخدام دولتی همیشه یکی از شعارهای پررنگ بوده است. آزمونهای سراسری، نمرهگذاری و مصاحبههای استاندارد، همهچیز طوری طراحی شده بود که حداقل ظاهر ماجرا منصفانه بهنظر برسد. اما حالا با ورود هوش مصنوعی به این روند، خیلی چیزها تغییر کرده است که مهمترین آن پاسخگو نبودن سیستم است.
تصور کن یک جوان از شهری کوچک، با مدرک خوب ولی دانشگاهی نهچندان مشهور، رزومهاش را برای یک شغل دولتی میفرستد. سیستم در کمتر از چند ثانیه بررسی میکند و نتیجه این است که «شما واجد شرایط نیستید». نه گفتوگویی در کار است، نه مصاحبهای. نه معلوم است چرا امتیاز پایین داده شده، نه راهی برای بازنگری وجود دارد.
در همین یکی دو سال اخیر، چند نمونه از این حذفهای بیدلیل گزارش شده است. در آزمون استخدامی یکی از نهادهای بزرگ دولتی، بیش از ۷۰ درصد متقاضیان مناطق کمبرخوردار در مرحلهی پیشداوری الگوریتمی رد شدند، بدون اینکه حتی وارد مصاحبه شوند. هیچکس توضیحی نداد. فقط گفتند: «طبق سیستم امتیاز نگرفتند.»
دولت و توهم فناوری بیطرف
یکی از جذابترین حرفهایی که درباره هوش مصنوعی زده میشود، همین بیطرفیاش است. اینکه ماشین نمیفهمد پارتیبازی چیست، تعصب ندارد، رابطه ندارد. اما این فقط در ظاهر ماجراست. چون هوش مصنوعی براساس دادههایی کار میکند که انسانها تولید کردهاند، با همهی سوگیریها، کلیشهها و اولویتهای پنهانشان.
وقتی هوش مصنوعی با دادههای واقعی استخدامهای گذشته آموزش دیده باشد، معلوم است که ترجیح میدهد کسی را انتخاب کند که شبیه استخدامهای قبلی باشد. اگر قبلاً بیشتر نیروهای یک اداره از تهران و دانشگاههای خاص آمدهاند، الگوریتم هم همان الگو رو تکرار میکند. نه از روی تعصب، بلکه از روی آمار.
حذف سلیقهای پشت نقاب هوش مصنوعی
یکی از خطرناکترین ابعاد استفاده از هوش مصنوعی در نهادهای دولتی اینه که هیچکس مسئول نیست. وقتی یک متقاضی رد میشود، مدیر استخدام میتواند راحت بگوید: «سیستم خودش بررسی کرده است». حالا آن سیستم میتواند طوری طراحی شده باشد که به نفع بعضی افراد خاص و به ضرر بقیه امتیاز دهد. اما چون کد آن شفاف نیست، نظارت بیرونی هم انجام نمیگیرد، هیچ راهی برای کشف این دستکاریها وجود ندارد.
حتی اگر هیچ دستکاریای هم انجام نشده باشد، باز هم این روش کاملا منصفانه نیست. چون نه به فرد فرصت دفاع میدهد، نه به شرایط خاص توجه میکند، نه به انگیزه، علاقه یا پتانسیل افراد.
کار دولتی، فقط برای کسانی که سیستم بشناسد
اگر همین روند ادامه پیدا کند، کمکم استخدام دولتی فقط برای کسانی خواهد بود که بلدند با الگوریتمها بازی کنند. کسانی که بلدند چطور رزومه بنویسند که امتیاز بگیرند، از چه کلیدواژههایی استفاده کنند، چه سابقهای را پررنگ کنند؛ و بقیه افراد حتی دیده هم نمیشوند.
در نهایت، مسئله فقط این نیست که هوش مصنوعی وارد استخدام دولتی شده است بلکه مسئله اینجاست که هیچ کس نمیداند چطور، با چه معیارهایی و تحت چه نظارتی انتخاب یا رد میشود. وقتی یک سیستم بینام و بیچهره تصمیم میگیرد چه کسی شایستهست و چه کسی نه، نمیشود از عدالت حرف زد. اگر قرار است فناوری بیاید، باید پاسخگو هم باشد. وگرنه فقط اسمش تغییر میکند، ولی بیعدالتی همان بیعدالتی میماند.