در حال حاضر بیشتر هموطنان ما، مثل آمریکاییها، اخبار خود را بیشتر از شبکههای اجتماعی دریافت میکنند. بنابراین روزانه به صورت ناخواسته، مقداری شایعه، اخبار با تیتر اشتباهبرانگیز، دروغ خالص و یا نظریات توطئه، به خورد کاربران میرود.
حتی کاربر اهل مطالعه که توان تشخیص خبر دروغ یا ضعیف از اخبار مستند و راست را داشته باشد، گاهی نمیتواند به درستی اخبار درست از نادرست را تشخیص بدهد، چه برسد به کاربران شتابزدهای که فاقد این توانایی هستند.
متأسفانه چون این مطالب و اخبار با مطالب درست شبکههای اجتماعی به صورت «درهم» تحویل مغز کاربر میشوند، کار بسیار دشوارتر میشود.
تا این جای کار را بیشتر میدانستیم. اما بر اساس مقاله جالبی که تایم منتشر کرده است، یک گروه پژوهشی متشکل از تحلیلگران اطلاعات از دانشگاه کلمبیا، متوجه شدهاند که اخبار کاذب، به اندازه اخبار درست، توان همهگیری یا اصطلاحا وایرال شدن را دارند، یعنی میتوانند مثل یک بیماری ویروسی همه را درگیر کنند.
علت موج جدید تمرکز روی مسئله صحت اخبار در شبکههای اجتماعی، متهم شدن این شبکهها به تغییر نظر توده مردم در انتخابات آمریکا و برنده شدن ترامپ در این رقابت حساس است.
نویسنده مقاله تایم- فیلیپو منسزر– از دانشگاه ایندیانا، در زمینه شبکههای اجتماعی یک متخصص است. او ۱۰ سال پیش آزمایشی ترتیب داده بود. او متوجه شده بود که وقتی دوستان همدانشگاهی دانشجویان، لینکهایی به اشتراک میگذارند، در ۷۲ درصد موارد دانشجوها، به مطالب مندرج در آن اعتماد میکنند. حتی اگر این اطلاعات در سایتهای نامعتبر یا حتی فیشینگ درج شده باشد.
این پژوهشگر در صدد برآمد، درستی این امر را آزمایش کند، برای همین یک صفحه اینترنتی درست کرد و آن را مملو از اخبار دروغ در مورد ستارگان کرد. مثلا اخباری مثل همبستری فلان هنرپیشه یا یک هنرپیشه دیگر! اصلا اسکریپتی وارد سایت کرد که وقتی کاربر در سایت دنبال اخبار یک هنرپیشه میگشت، خود سایت به صورت خودکار اخبار دروغین برایش میساخت! او تعدادی آگهی هم در سایت قرار داد و بعد پی کارهای خودش را رفت و به سایت سرکشی نکرد.
در انتهای ماه، وقتی این پژوهشگر وضعیت آگهیها را چک کرد، دید مبلغی درآمد از محل آگهی کسب کرده است!
متأسفانه این نوع تجارت کثیف فقط موضوع تحقیق این پژوهشگر باقی نمانده و بعد از گذشت ۱۰ سال، تولید اخبار دروغ به یک صنعت تبدیل شده است. موضوع البته فراتر از تولید اخبار دروغ در مورد ستارههای سینما و مد و موسیقی شده و سایتهای رادیکال سیاسی هم داریم که با تولید اخبار دروغی میخواهند، نظر عمومی را تغییر بدهند.
مغزهای متفکری هم وارد میدان شدهاند و کارشان این شده که باتهای شبکه اجتماعی تولید کمند یا اکانتهای شبکه اجتماعی کاذب درست کنند که با نرمافزار میتوان کنترلشان کرد.
گروهی از پژوهشگران، برای بررسی میزان تأثیرگذاری باتها، یک ابزار اینترنتی به نام BotOrNot درست کردند. هدف این بود که بررسی کنند، باتها زمان داغ شدن یک مطلب در شبکههای اجتماعی، چقدر سهم دارند. مثلا در جریان رأی مردم انگلیس به خروج از اتحادیه اروپا Brexit یا جنبش جلوگیری از واکسیناسیون اطفال، این باتها چقدر تأثیرگذار هستند یا اینکه چه میزان از توییتها در مورد انتخابات ۲۰۱۶ آمریکا، توییتهای تولیدشده توسط باتها بودند، نتیجه این بود که آنها سهمی غیر قابل تردید داشتند!
مثال: در این نمودار شما توییتهای انجام شده در مورد یک قانون واکسیناسیون در کالیفرنیای امریکا را میبینید. نقطهها، توییتها با هشتگ خاص در این مورد هستند. خطهای بین آنها، ریتوییت شدن آنها را نشان میدهند. هر چه یک نقطه بزرگتر باشد، نشان میدهد که ریتوییت بیشتری داشته است. اما چیز مهم نقطههای قرمز هستند، این نقطههای قرمز توییتهای تولید شده توسط باتها را نشان میدهند. همان طور که میبینید، توییتهای مصنوعی باتها، میزان ریتوییت قابل توجهی داشتهاند و شانس تأثیرگذاری آنها اصلا از توییتهای کاربران انسانی کمتر نیست!
تولید حبابهای اطلاعاتی
مغز ما انسانها مستعد دستکاری شدن با اطلاعات دیجیتال است. به سبب وجههای اجتماعی، شناختیع، اقتصادی و سوگیریهایی که داریم همواره این خطر وجود دارد.
اصلا ما انسانها در سیر تکامل خود در طی هزاران سال یاد گرفتهایم که به پیامهایی که از گروهها و حلقههای خودی فرستاده میشوند، بیشتر توجه کنیم. دههها قبل، افراد خودی، بیشتر در پیرامون ما بودند، اما حالا شبکههای اجتماعی دنیا را کوچک کردهاند و ما حلقههای خودی داریم که اعضایش در مناطق مختلف دنیا پراکنده هستند.
ما در اینجا میخواهیم در مورد خطری صحبت کنیم که در طی دههها، بیشتر و بیشتر شده است:
دههها پیش هم ما سوگیری دریافت اطلاعات از منابع محبوب داشتیم. یعنی ما بر اساس آموزهها و باورهای قبلی، روزنامه و مجله و کانال تلویزیونی و رادیویی مورد نظرمان را انتخاب میکردیم و از منابع اطلاعاتی دیگر پرهیز میکردیم و این طوری کوری نسبی به اطلاعات ناهمسو پیدا میکردیم.
منتها فناوری این قضیه را بسیار بدتر کرده است. سالها و دهههای قبلی، ناخواسته ما در معرض اخبار منابع دیگر قرار میگرفتیم. اما حالا خودتان را در هر شبکه اجتماعی دلخواه تصور کنید:
در اینستاگرام اگر کسی با افکار مخالف شما وجود داشته باشد، خیلی راحت بلاکش میکنید و دیگر اصلا مطالبش را نمیبینید. در توییتر و گوگل پلاس و فیسبوک هم قضیه به همین ترتیب است.
شوربختانه الگوریتمهای نمایش مطلب هم کار را خرابتر میکنند.
مثال خیلی ساده و خودمانی:
من در اینستاگرام چند اکانت هواداران یک تیم فوتبال (مثلاً ریال مادرید) را دنبال میکنم و هیچ اکانت هواداران تیم دیگری (مثلاً بارسلونا) را دنبال نمیکنم. وقتی به بخش اکسپلور میروم تا مطالب تصادفی از اکانتهای دیگر را ببینم و احیانا به مطالب جدیدی از اکانتهایی که دنبال نمیکنم برسم، تا حالا نشده که یک بار هم یک اکانت طرفداران بارسلونا به من نشان داده شود تا فرضا ببینم کریهای آنها چه سبکی دارد ?
حالا این در مورد چیز دوستانه و سادهای مثل هواداری از یک تیم داخلی است، در نظر بگیرید که الگوریتمهای اینستاگرام و فیسبوک وقتی شما، اکانتهای مربوط به یک جریان سیاسی خاص را دنبال میکنید، رفتار مشابهی میکنند.
خلاصه کنم، الگوریتمها آدم را احمق نگه میدارند و به عبارت مؤدبانهتر گستره دیدش را محدود میکنند و به زبان مولوی، باعث میشوند، همیشه و همیشه فقط یک عضو فیل را در اتاق تاریک بتوانید لمس کنید!
در نظر بگیرید که سالها در این حباب اطلاعاتی بمانید. با خودتان فکر میکنید که همیشه در مورد سیاست حق با من است. یا فرضا اگر کاربر نوجوانی، به مقتضای سن، همیشه اکانتها و کانالهای با محتوای زرد را دنبال کرده باشد، تا وقتی که انقلابی درونی در او رخ ندهد، همیشه مطالب سطح پایین به رؤیتاش میرسند. یعنی برخلاف سالهای نخست وب، شانس اینکه با پرش از صفحه و سایت و وبلاگی به یک جای دیگر، تصادفا با منابع اطلاعاتی خوب آشنا شود، بسیار کمتر میشود.
در نهایت سوگیری نظرات مسلم و تأیید شده رخ میدهد. ما انسانها به خاطر این سوگیری، هر مطلب و خبری را در حباب تشکیل شده میپذیریم و به اشتراک میگذاریم و به مطالب دیگر بیاعتنا میشویم و باور کنید ما خودمان یک بات میشویم!
از شما دعوت میکنم به نموار بسیار جالب زیر توجه کنید.
داستان این نمودار خیلی خواندنی است:
در انتخابات میاندورهای سال ۲۰۱۴ آمریکا، محققان مقاله اصلی متوجه شدهاند که در توییتر جریانی راه افتاده است و نتایج یکی از تحقیقات خود آنها به صورت نادرست و با عنوان اشتباه در حال دست به دست شدن و همهگیر شدن است.
محققان نمودار توییتری این جریان را ایجاد کردند و متوجه شدند دو اکانت مربوط به جریان رادیکال سیاسی مبادرت به تولید خبر دروغ کردهاند و بعد اکانتهای توییتر زیادی با حس همبستگی به آن جریان، بدون فکر، خبر دروغ را بازنشر کردهاند.
در این نمودار اگر خیلی دقت کنید، دو اکانت مسئول تولید خبر دروغ را در سمت چپ به رنگ نارنجی میبینید. نقاط ارغوانی هم کاربرانی هستند که خبر دروغ را بازنشر کردهاند.
همهگیر شدن ناگزیر اخبار کمکیفیت یا دروغ
در سالهای اولیه وب ۲.۰، صحبت از خرد جمعی بود. ما تصور میکردیم که کاربران میتوانند عقلشان را روی هم بگذارند و به صورت مشترک خبر تولید کنند و اخبار را پردازش کنند و باکیفیتترین آنها را اشاعه بدهند.
اما حالا پژوهشگران شبکههای اجتماعی متوجه شدهاند که برخی از مطالب زرد، میمهای فکاهی اینترنتی و مطالب نادرست، حتی توسط آن دسته کاربران که خبرهای باکیفیتتری را منتشر میکنند، اشاعه پیدا میکنند و گریزی از همهگیر شدن اخبار و مطالبی از این دست نیست.
چنین جوی دستهای کاربران را به یک نتیجه بد، اما منطقی میرساند:
برای اینکه محبوب شوم و گروهم اعضای بیشتری پیدا کند و لایک بیشتری بخورم، چرا سرم را درد بیاورم و خبر مستند تولید کنم. اخبار را از منابع دیگر میگیرم، پوسته آنها را تغییر میدهم. دروغی جذاب به آن اضافه میکنم و با صرف وقت و هزینه بسیار کمتر، یک شبه یه سود مالی میرسم که سایتهای دیگر با یک دهه کار نتوانستهاند!
چه باید کرد؟
همان طور که در پستها پیش گفتم، برای اینکه دنیای فردای ما بیشتر از حال، آکنده از دروغ نشود، چند کار باید انجام داد:
- تحت فشار قرار دادن شبکههای اجتماعی محبوب و مسئولیتپذیر کردن آنها برای تولید ابزارهای کنترلی، کار روی هوش مصنوعی که بتواند روی کیفیت مطالب و اخبار قضاوت کند و ایجاد انقلاب در الگوریتمهای نمایش فید کنونی
- افزایش سواد رسانهای کاربران و مصون کردن آنها به اخبار دروغ: ایجاد توانایی استدلال – مهارت فنی کسب مستقیم اخبار از سایتهای معتبر یا با فناوریهای مطمئنتری مثل خبرخوانها
- تقویت اکانتها، کانالها و منابع خبری معتبر با بازنشر هوشمندانه مطالب آنها در شبکههای اجتماعی
برگرفته: یکپزشک