وی ایکس
آگاه-شتاب
لاماری ایما/ آرین موتور
x
کاریزما
فونیکس
servatino
فلای تودی
۲۶ / ارديبهشت / ۱۴۰۴ ۱۴:۲۹
اقتصادآنلاین گزارش می‌دهد؛

بازی کثیف الگوریتم‌ها/ وقتی عدالت دیجیتال قربانی سودآوری می‌شود

بازی کثیف الگوریتم‌ها/ وقتی عدالت دیجیتال قربانی سودآوری می‌شود

پشت پرده‌ پلتفرم‌های دیجیتال چه می‌گذرد؟ چرا برخی برندها همیشه در صدرند و بعضی دیگر هرگز دیده نمی‌شوند؟ آیا الگوریتم‌ها بی‌طرف‌اند یا به نفع گروهی خاص طراحی شده‌اند؟

کد خبر: ۲۰۵۷۵۴۶
آرین موتور

اقتصادآنلاین، مهرین نظری: وقتی همه‌چیز با داده کنترل می‌شود، دیگر «بی‌عدالتی» فقط معنای سیاسی یا اقتصادی ندارد. تبعیض در دنیای دیجیتال نه با زور اسلحه، بلکه با قدرت الگوریتم رخ می‌دهد. نرم، بی‌صدا و اغلب بدون اینکه کسی متوجه شود. پلتفرم‌های دیجیتال، با الگوریتم‌هایی که جعبه سیاه باقی مانده‌اند، عملاً تصمیم می‌گیرند که چه کسی دیده شود، چه کسی فراموش شود، و چه کسی شایسته رشد است. این تصمیم‌گیری‌ها (اگرچه به ظاهر فنی و خودکارند) اما واقعیت پیچیده‌تری دارند که به ساختاری عمیق از تبعیض منتهی می‌شود.

اولویت با کیست؟ وقتی عدالت در سرچ دفن می‌شود

پلتفرم‌های دیجیتال مدعی‌اند که الگوریتم‌های‌شان خنثی‌اند. اما تجربه کاربران و کسب‌وکار‌های کوچک خلاف این را نشان می‌دهد. جست‌وجوی یک کالا، سرویس یا خدمت خاص در این پلتفرم‌ها، اغلب نتایجی را نمایش می‌دهد که یا به شرکای تجاری نزدیک‌اند یا به کسب‌وکار‌هایی که بیشترین درآمد را برای پلتفرم تولید می‌کنند. این یعنی عدالت در توزیع نمایش، عملاً یک افسانه است.

تحقیقات بین‌المللی از جمله مطالعه سال ۲۰۲۳ دانشگاه MIT نشان داده‌اند که الگوریتم‌های جست‌و‌جو و پیشنهاددهی بسیاری از پلتفرم‌های بزرگ، به شکلی سیستماتیک کسب‌وکار‌های کوچکتر یا تازه‌وارد را به حاشیه می‌رانند. در این مدل، آنچه دیده می‌شود نه بر اساس کیفیت واقعی یا ترجیح کاربران، بلکه براساس سودآوری برای خود پلتفرم انتخاب می‌شود.

در این میان، گاه الگوریتم‌ها بدون اطلاع قبلی تغییر می‌کنند و حتی رتبه‌بندی صفحات، نتایج جست‌و‌جو یا نرخ تبدیل کاربران تحت تأثیر قرار می‌گیرد. کسب‌وکار‌های مستقل، ناگهان با افت بازدید و کاهش فروش مواجه می‌شوند، بدون اینکه بدانند چه چیزی تغییر کرده یا چگونه می‌توانند به وضعیت قبل بازگردند. این سطح از ابهام، شکاف قدرت شدیدی میان پلتفرم و کاربرانش ایجاد کرده است.

الگوریتم‌های سکوت، وقتی انتقاد سانسور می‌شود

یکی از ابعاد خطرناک الگوریتم‌های تبعیض‌آمیز، استفاده از آنها برای کنترل یا حذف صدا‌های منتقد است. در پلتفرم‌هایی که تعامل و نظرات کاربران نقش مهمی در دیده‌شدن دارد، گزارش‌هایی وجود دارد که نشان می‌دهد انتقاد از خود پلتفرم یا از برند‌های هم‌پیمان، با کاهش دسترسی، دی‌پرایوریتی شدن محتوا یا حتی مسدودسازی تدریجی حساب‌ها مواجه شده است.این حذف تدریجی (که به آن «shadow banning» گفته می‌شود) به‌گونه‌ای عمل می‌کند که کاربر یا کسب‌وکار متوجه محدود شدن خود نمی‌شود، اما در عمل از چرخه رقابت حذف می‌شود. چنین سیاست‌هایی، فضای رقابت سالم را تهدید می‌کند و مسیر را برای سانسور خودکار، بدون دخالت انسان و بدون نظارت بیرونی، باز می‌گذارد.

در سال‌های اخیر چندین پلتفرم بین‌المللی به‌دلیل چنین عملکرد‌هایی زیر ذره‌بین نهاد‌های نظارتی قرار گرفته‌اند. اما در بسیاری از کشور‌ها (به‌ویژه در بازار‌های بسته‌تر یا تحت سلطه پلتفرم‌های داخلی) چنین نظارتی اصلاً وجود ندارد یا بسیار ضعیف است. همین فقدان نظارت، الگوریتم را از یک ابزار فنی به سلاحی خاموش برای حذف تدریجی رقبای نامطلوب تبدیل کرده است.

چرا شفافیت الگوریتمی لازم است، اما هیچ‌کس مسئول نیست؟

پلتفرم‌ها معمولاً الگوریتم‌های خود را «دارایی تجاری محرمانه» معرفی می‌کنند و از انتشار جزئیات آن خودداری می‌کنند. در ظاهر منطقی است، هر کسب‌وکار حق دارد فرمول موفقیت خود را مخفی نگه دارد. اما وقتی همین الگوریتم‌ها به زیرساخت حیاتی بازار، ارتباطات، خرید و فروش، تبلیغات و حتی استخدام بدل شده‌اند، دیگر نمی‌توان آنها را فقط "دارایی خصوصی" دانست.

در بسیاری از کشورها، قوانین ضدانحصار به‌روز نشده‌اند تا الگوریتم را به‌عنوان ابزار قدرت بررسی کنند. حتی در اروپا که قوانین سخت‌گیرانه‌تری مانند DMA (Digital Markets Act) اعمال شده، اثبات تبعیض الگوریتمی هنوز چالش‌برانگیز است. در بازار‌هایی مانند ایران، که بخش بزرگی از بازار دیجیتال در انحصار چند پلتفرم خاص است، نبود شفافیت الگوریتمی نه‌تنها رقابت را مختل کرده بلکه اکوسیستم نوآوری را از درون تهی کرده است.

پیشنهاد‌هایی مانند «ممیزی الگوریتم» یا تشکیل نهاد‌های مستقل برای بررسی تبعیض در تصمیمات الگوریتمی، هنوز در مراحل اولیه‌اند. اما اگر این روند ادامه یابد، به‌زودی باید با واقعیتی مواجه شویم که در آن نه دولت‌ها، نه نهاد‌های نظارتی، بلکه چند پلتفرم بزرگ تعیین می‌کنند چه چیزی حقیقت است، چه کسی حق دیده‌شدن دارد و چه کسی از حافظه جمعی حذف خواهد شد.

الگوریتم‌ها بی‌گناه نیستند، قدرت نرم، آسیب سخت

شاید زمانی می‌شد گفت الگوریتم فقط یک کد بی‌طرف است، اما امروز دیگر چنین دیدگاهی ساده‌لوحانه است. الگوریتم‌ها نه‌تنها توسط انسان‌ها طراحی می‌شوند بلکه بازتاب‌دهنده‌ی اولویت‌ها، منافع و سوگیری‌های آنها نیز هستند. وقتی یک پلتفرم تصمیم می‌گیرد کدام کالا در صدر باشد، کدام محتوا حذف شود، یا کدام کاربر بیشتر دیده شود، عملاً در حال مهندسی واقعیت است.

در این بازی پیچیده، کسب‌وکار‌های کوچک، تولیدکنندگان مستقل محتوا، و حتی کاربران عادی، تنها بازندگان میدان هستند. در حالی که پلتفرم‌ها با شعار «هوش مصنوعی برای بهبود تجربه کاربری» از خود رفع مسئولیت می‌کنند، در عمل کنترل کامل بازار، داده و رفتار کاربران را در اختیار دارند آن هم بدون شفافیت، بدون پاسخ‌گویی، و بدون رقابت واقعی.

برای جلوگیری از این تبعیض پنهان، لازم است نهاد‌های نظارتی به ابزار‌های تحلیل الگوریتمی مجهز شوند. قوانین شفافیت در تصمیم‌گیری الگوریتمی به‌روز شوند. کاربران حق داشته باشند تصمیمات پلتفرم را به چالش بکشند. و در نهایت، الگوریتم‌ها نیز مانند دیگر ابزار‌های قدرت، تحت نظارت عمومی قرار گیرند.

تا آن روز، قدرت واقعی نه در دست قانون‌گذاران، بلکه در کد‌هایی خواهد بود که تعیین می‌کنند چه کسی موفق می‌شود و چه کسی ناپدید.

ارسال نظرات
کیان
x