خرید تور تابستان ایران بوم گردی

پلتفورم‌ها برای حقوق شما تره هم خورد نمی‌کنند

آمنه دهشیری، پژوهشگر حقوق سایبری، به بهانه‌ی ماجرای حذف حساب کاربری «امپراطور کوزکو» در هفته‌ی گذشته، درباره‌ی حقوق در دنیای سایبری، در یادداشتی برای انصاف نیوز به این موضوع پرداخته است.

حساب کاربری «امپراطور کوزکو» در هفته‌ی گذشته حذف شد و بدلیل مصادف شدن این موضوع با انتشار ویدئویی از او در مورد سفر اخیر رئیس دولت سیزدهم، بسیاری گمانه‌زنی کردند که بدلیل گزارش‌های سازمان‌یافته به اینستاگرام این حساب کاربری حذف شده است.

در روزهای گذشته، این حساب کاربری دوباره از سوی اینستاگرام فعال شد.

متن یادداشت دهشیری در مورد حقوق در دنیای سایبری را در ادامه بخوانید:

هفته گذشته بعد از آنکه کمدینی با نام مستعار امپراطور کوزکو ویدئوی طنزی در باره حواشی سفر رئیس جمهور به روسیه منتشر کرد حسابش هدف گزارش‌های سازمان یافته و دسته جمعی قرار گرفت و مسدود شد.

در عمل یک حرکت سازمان یافته می‌تواند با توسل به امکان گزارش دسته جمعی مانع انتشار محتوایی در شبکه‌های شود، بدون آنکه آن محتوا یا حساب مقررات پلتفورم را نقض کرده باشد. اما از طرف دیگر دیده می‌شود که محتوای آزارگرانه و تهدید به خشونت و یا نفرت پراکرانه‌ای که به زبان فارسی‌ست حتی بعد از گزارش توسط فرد قربانی نیز حذف نمی‌شود. زیرا از نظر پلتفورم این  محتوا ناقض مقررات پلتفورم تشخیص داده نمی‌شوند.

گزارش‌دهی کاربران، سیاست‌گذاری‌های داخلی شرکت‌های مالک پلتفورم‌ها، وضع قوانین داخلی در کشورها، اعمال مجازات و فیلترینگ همه روش‌های مختلف قاعده مند سازی و کنترل  محتوا در دنیای پلتفورم‌های آنلاین هستند.

گروهی که به قدرت نزدیک است ممکن است از مجموعه روش‌ها و ابزارها برای حذف صداهایی که نمی‌پسندد استفاده کند. یعنی هم پلتفورم را فیلتر کند، هم صاحب اکانت را مجازات کند و هم به عنوان تیر آخر با استفاده از سازو کارهای موجود در پلتفورم‌ها محتوا یا حساب را حذف کند.

قانونگذاری داخلی در مورد مسئولیت پلتفورم‌ها در صورتی بر روی عملکرد آنها تأثیر دارد که شرکت مالک پلتفورم تابعیت آن کشور را داشته باشد یا از طریق شعبه به طور رسمی در کشوری فعالیت داشته باشد. ماهیت جهانی و فراسرزمینی اینترنت باعث شده این سئوال که «قانون کدام کشور بر پلتفورم حاکم است؟» هر جا و هر زمان که مطرح شود سیل مباحث حقوقی شکل بگیرد. از آنجایی که این یادداشت قرار نیست دو هزار صفحه باشد وارد این مباحث نمی‌شود و تنها اشاره‌ای به آن می‌کند.

شرکت‌های اینترنتی برای اینکه خیال خود را راحت کنند در خیلی موارد دست به عصا راه می‌روند تا قوانین داخلی کشوری که تجارت و کسب و کارشان وابسته به حضور و فعالیت در آن کشور است را نقض نکنند. از این رو بایدها نبایدهایی را برای کاربران خود تعیین می‌کنند.

اما سئوال های اصلی از این اینجا به بعد مطرح می‌شوند:

آیا شرکت‌هایی که غول‌های اینترنتی جهان امروز هستند در جایگاهی قراردارند که بتوانند در مورد محتوای قرارداده شده در پلتفورم‌ها قضاوت کنند و تصمیم بگیرند که چه محتوایی بماند و چه محتوایی حذف شود؟ مقررات سرویس دهی (Terms of Service) چه نقشی در نظارت بر محتوا دارند؟

سیستم گزارش‌دهی چقدر قابل اعتماد است؟ آیا این گزارش‌ها توسط عامل انسانی بررسی می‌شوند؟ آیا آن عامل انسانی از بستر زبانی و فرهنگی و سیاسی محتوای گزارش شده مطلع است تا بتواند تصمیم مناسبی بگیرد؟

هوش مصنوعی و الگوریتم‌هایی که برای بررسی محتوای گزارش شده استفاده می‌شوند آیا در مورد محتوای غیر انگلیسی و غیر غربی نیز کارکرد مناسبی دارند؟

با پرسش اول شروع می‌کنیم. درست است که شرکت‌هایی مثل گوگل و توییتر و فیس‌بوک سابق و متای فعلی و لینکدین با خدماتی که ارائه می‌دهند تأثیر شگفت‌انگیزی بر روی دسترسی و جستجوی اطلاعات و بیان نظرات و تسهیل ارتباطات انسانی در سراسر جهان داشته‌اند ولی یک موضوع را نباید فراموش کرد: این غول‌های اینترنتی شرکت‌های تجاری‌ای هستند که به هیئت مدیره خود پاسخگواند و تمام تلاش‌هایشان افزایش درآمد است نه تأمین حق بشری دسترسی به اطلاعات و آزادی بیان و دسترسی به آموزش یا هر حق دیگری.

مدل درآمدزایی این شرکت‌ها بر اساس تبدیل تمام رفتارهای آنلاین به داده و کسب درآمد از این داده‌هاست. اظهارنظرها، مجادله‌ها، پست‌ها و جابجایی‌ها و پسندهای ما تبدیل به داده می‌شوند. هرچه یک شرکت توانش در جمع آوری و تحلیل و استفاده از داده‌ها بیشتر باشد به ثروت بیشتری نیز دست پیدا می‌کند.

برای شرکت‌های سوشیال مدیا فقط می‌خواهد کاربر را هر چه طولانی‌تر در پلتفورم نگه دارد تا بیشتر فعالیت و تعامل کنند و داده‌های قابل تبدیل به پول بیشتری تولید کنند. یکی از راه‌های نگه داشتن بیشتر کاربر در پلتفورم آن است که محتوایی را به او نشان دهند که با آن موافق است. بنابراین امکان گزارش‌دهی در پلتفورم ها پیش بینی شده‌اند.

ممکن است قانون در برخی کشورها از پلتفورم ها بخواهد که نسبت به انتشار محتوای خاصی مثل نفرت پراکنی یا آگهی خرید و فروش خدمات جنسی یا پرنوگرافی کودکان حساسیت نشان دهند و این محتوا را حذف کنند و یا مثل اتحادیه اروپا ملزم باشند استانداردهایی را برای حمایت از داده‌های شخصی به کارببرند. اما اینجا هم انگیزه‌ی پیروی از قانون توسط شرکتها مادی‌ست. زیرا در غیر این صورت جریمه‌های سنگینی انتظارشان را می‌کشد. حتی ممکن است بنا بر سنت آمریکایی و روح حاکم بر بخش 230 قانون نجابت ارتباطات پلتفورم‌ها به خاطر محتوای کاربرانشان مسئول شناخته نشوند. اما باز هم به اشتراک گذاری برخی از مطالب و عدم برخورد حذفی با آنها باعث برانگیختن اعتراضات گسترده و ریزش ارزش سهام شود.

برای ایجاد محیطی که کاربران در آن بیشتر گشت و گذار کنند و شرکت کم‌ترین برخورد با دولت‌ها را داشته باشند پلتفورم‌ها از طریق شرایط و مقررات سرویس‌دهی (Terms of Service) دست به استاندارد سازی می‌زنند. مقررات سرویس‌دهی ظاهراً یک قرارداد خصوصی است که بین شرکت ارائه دهنده پلتفورم و فرد کاربر بسته می‌شود و کاربر متعهد می‌شود که شرایط پلتفورم را در مورد نحوه بیان نظارتش و محتوایی که به اشتراک می‌گذارد رعایت کند. نسلی از کاربران امروز اینترنت در فضایی بزرگ شده‌اند که برای دسترسی به اطلاعات و ارتباط گرفتن با سایرین و حتی تجارت و خرید فروش و خواندن اخبار به پلتفورم وابسته‌اند. پلتفورمی که بر اساس این قواعد تعیین می‌کند چه کسی می‌تواند چه مطلبی را بیان کند یا با آن مخالفت کند.

در اسناد حقوق بشر این اجازه به دولت‌ها داده شده است که برای احترام به حقوق و آزادی‌های دیگران و بهداشت و سلامت عمومی و امنیت ملی به موجب قانون محدودیت‌هایی برای بیان وضع شود. اعمال این محدودیت‌ها نیز در هر مورد می‌بایست از طریق یک دادرسی عادلانه همراه با امکان دفاع صورت گیرد.

وقتی پلتفورم‌ها مقررات سرویس‌دهی را اعمال می‌کنند نه با قانون سرو کار داریم نه با دادرسی عادلانه و نه حق دفاع در یک مرجع بی‌طرف. شرکتی سیاست‌هایش را به ما تحمیل می‌کند و بعد نیز خودش در مورد حذف  محتوا تصمیم می‌گیرد. ازاینرو در دو دهه گذشته تلاش‌های بسیاری صورت گرفته که شرکت‌های اینترنتی مخصوصاً غول‌های شبکه‌های اجتماعی در تدوین شرایط و مقررات سرویس دهی هنجارهای حقوق بشری را مد نظر قراردهند.

در حال حاضر بر اساس مقررات اینستاگرام کاربران می‌توانند محتوایی که مربوط به برهنگی و فعالیت‌های جنسی، نفرت پراکنی، خشونت و سازمان‌های خطرناک، فروش کالاهای غیر قانون یا نیازمند مجوز، آزار و نقض مالکیت فکری، خودکشی و یا آسیب به خود یا کلاهبرارتی و اطلاعات نادرست است را گزارش دهند. اما تفسیر هر یک از این موارد با خود پلتفورم است و بس.

اوایل که پلتفورم‌ها فعالیت خود را شروع کرده بودند گزارش دهی اسم دیگری داشت و به آن نشان دار کردن یا Flagging می‌گفتند. کاربر با استفاده از این ابزار احساس می‌کرد می‌تواند در پلتفورم و چینیش محتوا در آن تأثیر گذار باشد. اما خیلی زود این ابزار مورد سوء استفاده قرارگرفت و از گزارش دروغ برای حمله و ترول کردن و بستن و حذف و معلق کردن حساب‌هایی استفاده شد که مقررات را نقض نکرده بودند.

این گزارش‌ها ممکن است توسط ترکیبی از عامل انسانی و الگوریتم بررسی شوند. یا تنها بررسی نهایی به عامل انسانی واگذار شود و یا تمام مراحل توسط الگوریتم صورت بگیرد. اما باید به خاطر داشت که استفاده از عامل انسانی به معنای بالا بودن دقت در بررسی نیست. عامل انسانی ممکن است نیروی قراردادی یک شرکت پیمانکاری در هند یا رومانی باشد که روزانه باید در مورد هزاران گزارش تصمیم گیری کند. گزارشگر سابق سازمان ملل در خصوص آزادی بیان، دکتر دیوید کایه، در کتاب خود «پلیس بیان: تلاش جهانی برای حکومت بر اینترنت» به تفصیل به این موضوع می‌پردازد که حتی اگر عامل انسانی با زبان و فرهنگ و فضای سیاسی کشوری آشنا باشد باز هم ممکن است قضاوت و تصمیم گیری‌اش تحت تأثیر فشار سیاسی یا وابستگی‌های سیاسی‌اش باشد.

رفته رفته با توجه به حجم بالای گزارش‌ها استفاده از نیروی انسانی برای بررسی آنها بسیار گران و زمان بر شد. از این رو غول‌های اینترنتی هر روز از برنامه بلند پروازانه‌ی جدیدی برای استفاده از الگوریتم‌ها برای بررسی و بالا پایین کردن  محتوا پرده‌برداری می‌کنند. برای مثال فیس بوک بعد از فشارهای بسیار بر توسعه الگوریتم‌هایی سرمایه گزاری کرد که توان تشخیص نفرت پراکنی را داشته باشند. یا اینستاگرام در مورد توسعه امکان شناسایی اتوماتیک کامنت‌های آزارگرانه کار کرد.

 این الگوریتم‌ها نیازمند آن هستند که همراه با تحولات اجتماعی و زبانی به روز رسانی شوند تا توان تشخیص آزار و تهدید و نفرت پراکنی در ظرف زمانی مکانی را داشته باشند. در حال حاضر اگر الگوریتم‌های بررسی کننده محتوا برای زبان خاصی توسعه پیدا نکرده باشند از ترجمه هوش مصنوعی استفاده می‌شود. وقتی که پای فحاشی و طنز و هیجان و کنایه و بازی‌های زبانی و یا زبان غیر رسمی و کوچه بازاری در میان باشد این ترجمه‌های ماشینی به احتمال زیاد راه به جایی نمی‌برند. برای مثال امروزه در ایران به نوع خاصی از ساندوچ «بمب» گفته می‌شود. یا ممکن است در یک اظهار نظر دوستانه به رسم قدما مطایبه کنند و آرزو که «امیدوارم بعد از خوردن این بمب بترکی». خب تصور اینکه الگوریتم توییتر این محتوای حاوی کلمات BOMB و explosion را به عنوان مطلب تهدید آمیز و تروریستی نشانه گذاری کند خیلی سخت نیست.

این تبعیض و تفاوت‌های ساختاری در بررسی محتوای غیر انگلیسی زبان بر تجربه هرروزه کاربران در نقاط مختلف جهان تأثیر می‌گذارد. مثل روز روشن است که شرکت‌های اینترنتی تا وقتی بهتر کردن تجربه کاربران غیر انگلیسی زبان برایشان نفع مستقیم اقتصادی نداشته باشد اقدامی در این راستا انجام نمی‌دهند. از آنجایی که غول‌های اینترنتی در حال حاضر فعالیت اقتصادی‌ای در ایران ندارند نمی‌توان امیدی به حساب کتاب سود و زیان این شرکت‌ها در مورد محتوای فارسی داشت. فقط می‌ماند آگاه سازی و در میان گذاشتن تجربه‌های فارسی زبانان با نهادهایی که سعی می‌کنند از طریق فشار افکار عمومی بر سیاست گذاری‌های پلتفورم‌های بین المللی تأثیر گذار باشند.

انتهای پیام

بانک صادرات

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا