سی اس اس برای شما

 

به گزارش کارگروه شبکه های اجتماعی سی اس اس؛ بخشی از فناوری با نوعی فساد روبرو شده است؛ اما در بحبوحه تمام نگرانی‌های ناشی از اخبار جعلی، دادوفریادهای برخاسته از طرح‌های روسیه برای انتشار اطلاعات غلط که انتخابات امریکا را از رونق انداخت، درخواست سیاستمداران از غول‌های فناوری برای استقرار وجدان اجتماعی، فهم پیچیده‌تری در حال شکل‌گیری است.

اخبار جعلی و اطلاعات دروغ فقط چند نشانه از آن چیزی است که دچار اشکال و فساد شده است. مشکلی که با غول‌های این حوزه وجود دارد، بسیار اساسی‌تر از این حرف‌ها است.

مشکل این است که این موتورهای الگوریتمی بسیار قدرتمند، همانند جعبه سیاه هستند؛ و در مرحله عملیاتی، هر کاربر مستقل فقط آن چیزی را می‌بیند که یک کاربر مستقل می‌تواند ببیند.

دروغ بزرگ شبکه‌های اجتماعی این ادعا بوده است که جهان را در معرض دید ما می‌گذارد؛ و فریب بعدی آنها این بود: محصولات فناوری آنها، ما را به هم نزدیک‌تر می‌کند.

در حقیقت، شبکه‌های اجتماعی یک لنز تلسکوپی نیست- آن‌طور که تلفن بود- بلکه یک منشور نظرشکن است که با جایگزین کردن یک حوزه عمومی مشترک و گفتمان همپوشانی پویای آن با دیواری از حباب‌های فیلتری که به‌طور فزاینده متمرکز می‌شود، انسجام اجتماعی را بر هم می‌زند.

شبکه‌های اجتماعی یک بافت همبند (پیوندی) نیست بلکه نوعی تفکیک طراحی‌شده است که با هر جفت از کره‌های چشم انسان همانند یک واحد گسسته رفتار می‌کند که قرار است از همتایان خود جدا شود.

خوب به این موضوع فکر کنید. به یک کابوس تریپوفوبیایی شبیه است. یا یک سراسرنمای وارونه است- هر کاربر در یک سلول منفرد زندانی شده است و کنترل‌کننده قادر است از برج شیشه‌ای خود بر آنها نظارت کند.

جای تعجب نیست که دروغ‌ها به این سرعت از طریق محصولات منتشر و تکثیر می‌شوند؛ به‌طوری‌که نه تنها نرخ انتقال اطلاعات با سرعت بسیار افزایش می‌یابد بلکه انسان‌ها را در آمیزه‌ای از تعصبات خود آنها گرفتار می‌کند.

ابتدا به خواسته‌ها و نیازهای آنها پاسخ مثبت می‌دهد، سپس دوقطبی ایجاد می‌کند و آنها را روبروی هم قرار می‌دهد و درنهایت، ما را از هم جدا می‌کند.

زمانی که وارد فیس‌بوک می‌شویم یا به‌دقت به نتایج شخصی‌شده در گوگل می‌نگریم، انگار که عینکی تیره‌وتار به چشم زده باشیم، هر یک جداگانه هدفونی سفارشی بر گوش می‌نهیم که دائماً یک فیلم سفارشی را پخش می‌کند – در سینمایی تاریک و تک‌صندلی بدون حتی یک پنجره یا در.

تا حالا احساس خفگی به شما دست داده است؟

فیلمی پخش می‌شود که موتور الگوریتمی فکر می‌کند شما آن را دوست دارید. به این خاطر که بازیگران مورد علاقه شما را شناسایی کرده است. می‌داند به چه ژانری علاقه دارید. کابوس‌هایی که شب‌ها دست از سرتان برنمی‌دارد. اولین چیزی که صبح‌ها به آن فکر می‌کنید.

تفکر سیاسی شما را می‌شناسد، دوستان شما را نیز همین‌طور و این‌که کجاها می‌روید. بی‌وقفه شما را زیر نظر دارد و این اطلاعات را به محصولی سفارشی، دائم‌التکرار و احساس‌برانگیز مختص خود شما تبدیل می‌کند.

دستورالعمل محرمانه آن، ترکیب بی‌نهایت علایق و تنفرات شخصی شماست که از اینترنت به دست آمده است، یعنی همان جایی که شما ناخواسته آنها را منتشر می‌کنید (حتی عادات آفلاین شما نیز از ماشین دروی آن در امان نیست- به کارگزاران و دلال‌های اطلاعات پول می‌دهد تا از این موارد نیز برایش خبر ببرند.)

هیچ‌کس دیگری هرگز موفق به تماشای این فیلم نخواهد شد. حتی از وجود چنین فیلمی هم خبردار نخواهد شد. هیچ آنونسی برای تبلیغ آن پخش نمی‌شود. چرا برای فیلمی که فقط برای شما ساخته شده است، زحمت تهیه بیلبورد به خود بدهند؟ درهرحال، محتوای سفارشی و شخصی‌شده تقریباً همان چیزی است که میخکوب شدن شما روی صندلی را تضمین می‌کند.

اگر بسترهای شبکه‌های اجتماعی، کارخانه تولید سوسیس بود، می‌توانستیم حداقل جلوی هر کامیون باری را هنگام خروج بگیریم تا درباره ترکیب ماده گوشتی رنگ داخل هر بسته کاوش کنیم- و ببینیم که آیا واقعاً به همان خوشمزگی که گفته می‌شود، هست یا خیر.

 مطمئناً مجبوریم این کار را هزاران بار انجام دهیم تا درباره محتوای هر کیسه، به اطلاعات معقول دست پیدا کنیم؛ اما این کار شدنی است.

افسوس که در بسترهای شبکه‌های اجتماعی، این‌گونه محصولات فیزیکی وجود ندارد و برای تحقیق و بررسی، هیچ ردپای فیزیکی در اختیار نداریم.

دود و آینه

درک فرآیندهای شکل‌دهنده اطلاعات در بسترهای شبکه‌های اجتماعی نیازمند دسترسی به جعبه سیاه الگوریتمی آنها است؛ اما این جعبه‌های سیاه، درون ساختمان‌های مرکزی بسترها محافظت می‌شوند و روی آنها برچسب‌های از این قبیل دیده می‌شود: «اختصاصی! غیرقابل بازدید! اطلاعات حساس تجاری!»

فقط مهندسان و مالکان می‌توانند به آنجا سرک بکشند؛ و حتی آنها هم لزوماً همیشه از تصمیماتی که این دستگاه‌ها و تجهیزات می‌گیرند سر در نمی‌آورند.

اما این عدم تقارن چقدر پایدار است؟ اگر ما به‌عنوان جامعه کلان- که این بسترها از نظر از اطلاعات، کره چشم، محتوا و درآمد به آن وابسته هستند؛ ما مدل کسب‌وکار آنها هستیم- نتوانیم ببینیم که چگونه با آنچه به شیوه قطره‌چکانی به تک‌تک ما می‌خورانند، از هم جدا می‌شویم، چگونه می‌توانیم درباره کاری که فناوری با تک‌تک ما انجام می‌دهد، قضاوت کنیم؟ و چگونه می‌توانیم تشخیص دهیم که این فناوری چگونه به جامعه نظم بخشیده و به آن شکل می‌دهد؟ چگونه می‌توان به سنجش تأثیر آن امیدوار بود؟ مگر مواقعی که آسیب‌های آنها را احساس کنیم. بدون دسترسی به اطلاعات منطقی چگونه می‌توان به‌درستی گفت که آیا وقت سپری شده در اینجا و آنجا یا در هر یک از این بسترهای تبلیغاتی که در راستای تحقق خواسته‌ها عمل می‌کنند، «زمانی بوده است که به‌درستی صرف شده است»؟

درباره قدرت جلب توجه که غول‌های فناوری روی ما دارند – مثلاً زمانی که ایستگاه قطار ناگزیر است علائم هشداردهنده‌ای نصب کند تا به والدین اخطار دهد که سر خود را از روی گوشی برداشته و به جای آن، مراقب کودکان خود باشند- چه می‌گوید؟

آیا نسیم احمقانه تازه‌ای در شهر وزیدن گرفته است؟ یا توجه ما را به ناحق دزدیده‌اند؟

زمانی که مدیران عرصه فناوری اعتراف می‌کنند که اصلاً علاقه‌ای ندارند که فرزندان خود آنها دوروبر محصولاتی بروند که به خورد دیگران می‌دهند، چه باید گفت؟ گویی آنها این‌طور فکر می‌کنند‌ که این محصولات در حکم گونه جدیدی از نیکوتین است.

پژوهشگران بیرونی، در تلاش برای شناسایی تأثیرات اجتماعی غول‌های فناوری، با تمام توان خود تلاش کرده‌اند که جریان افکار و تأثیر برخط را ترسیم و تجزیه‌وتحلیل کنند.

با وجود این، توییتر یکی از آن غول‌هایی است که با وسواس زیاد، از جایگاه دروازه‌بانی خود عملاً این تحقیقات را نادیده می‌گیرد و هر پژوهشی را که نتایج آن مطابق میلش نباشد، با این ادعا که تصویر ناقصی از حقیقت را ارائه می‌کند، مزخرف می‌خواند.

چرا؟ زیرا پژوهشگران بیرونی به تمام جریان‌های اطلاعاتی آن دسترسی ندارند. چرا؟ زیرا آنها نمی‌توانند ببینند که اطلاعات چگونه توسط الگوریتم‌های توییتر شکل می‌گیرد، یا هر کاربر توییتر چگونه کلید پنهان کردن محتوا را فشرده است (یا نفشرده است) که همچنین می‌تواند – به گفته توییتر- سوسیس را قالب‌بندی کرده و مشخص کند که چه کسی می‌تواند آن را مصرف کند.

چرا که نه؟ زیرا توییتر این دسترسی را به غریبه‌ها نمی‌دهد. متأسفیم، علامت هشدار را ندیده بودید؟

 و زمانی که سیاستمداران، شرکت را زیر فشار قرار می‌دهند تا تصویر کامل را ارائه دهد- بر مبنای داده‌هایی که فقط توییتر می‌تواند مشاهده کند- تنها چیزی که عایدشان می‌شود بخش‌های گزینش‌شده‌ای از اطلاعاتی است که در راستای منافع خود توییتر منتشر می‌شود.

(این بازی «طرح پرسش‌های آزاردهنده» / «مخفی کردن خال بی‌ریخت» ممکن است همین‌طور ادامه پیدا کند. با وجود این به نظر نمی‌رسد که در درازمدت، این بازی به لحاظ سیاسی چندان دوام بیاورد- درهرحال، بازی‌های سین‌جیم کردن دیگری ممکن است به‌طور ناگهانی به چرخه مد بازگردد.)
و زمانی که فیس‌بوک در حفظ استانداردهای فعلی خود ناکام مانده است، چگونه می‌توانیم به این شرکت برای ایجاد سامانه‌های قوی و دقیق مقابله با افشای اطلاعات، اعتماد کنیم؟

مارک زاکربرگ از ما می‌خواهد باور کنیم که او می‌تواند کار درست را انجام دهد. درعین‌حال، او از مدیران قدرتمند فناوری است که نگرانی‌ها درباره وجود اطلاعات دروغ و مخرب در بستر شرکت او را عمداً نادیده گرفت. او حتی هشدارها درباره این‌که اخبار جعلی می‌تواند دموکراسی را نیز تحت‌الشعاع قرار دهد، نادیده گرفت؛ هشدارهایی که از سوی خودی‌ها و مشاوران سیاسی آگاه و زیرک صادر شده بود.

جعبه‌های سیاه جهت‌دار

قبل از آن‌که اخبار جعلی به بحران جاری در کسب‌وکار فیس‌بوک بدل شود، خط استاندارد دفاعی زاکربرگ برای هرگونه محتوای مطرح شده، به انحراف کشاندن بحث بود- این ادعای معروف که «ما شرکت رسانه‌ای نیستیم؛ ما شرکت فناوری هستیم».

چه بسا حرف زاکربرگ درست باشد؛ زیرا احتمالاً شرکت‌های فناوری حقیقتاً به نوع جدیدی از مقررات سفارشی نیاز دارند. مقرراتی که منعکس‌کننده ماهیت بسیار هدفمند محصول شخصی‌شده ای باشد که کارخانه آنها در مقیاسی برابر با – مبتلایان به تریوپوفوبیا نگاه نکنند!- ۴ میلیارد کره چشم، در حال تغییر دادن آن است.

در سال‌های اخیر از قانون‌گذاران درخواست شده است تا به جعبه سیاه الگوریتمی دسترسی داشته باشند تا بتوانند بر موتورهایی که ما را تحت تأثیر قرار می‌دهد و ما (محصول) امکان مشاهده (و طبیعتاً نظارت) آن را نداریم، نظارت نمایند.

کاربرد فزاینده هوش مصنوعی، مسئله را جدی‌تر می‌کند و اگر تعصبات به‌طور خام وارد جعبه سیاهی شود که از امتیاز تجاری برخوردار است؛ خطر این تعصبات، مطابق با سرعت و مقیاس بسترهای فناوری پیش خواهد رفت.

آیا به نظر ما خودکارسازی اشکالات، درست و عادلانه است؟ دستکم تا زمانی که شکایت‌ها آن‌قدر برجسته و پررنگ شود که کسی در جایی به نحو مناسبی این شکایت را بشنود و بانگ اعتراض بلند کند؟

توجیه الگوریتمی نباید به این معنا باشد که برای معکوس کردن ناکامی فناورانه، توده عظیمی از انسان‌ها باید رنج بکشند. ما حتماً باید به دنبال فرآیندهای مناسب و توجیه منطقی باشیم. هزینه آن هر چه می‌خواهد، باشد.

و اگر هر بار که از بسترهای قدرتمند درخواست می‌شود که به پرسش‌هایی پاسخ دهند که فراتر از منافع تجاری آنها است – پاسخ‌هایی که فقط در اختیار خود آنهاست- این بسترها از پاسخگویی طفره رفته و رو به حقیقت سازی می‌آورند، آنگاه درخواست از آنها برای باز کردن جعبه سیاه خود، مطمئناً به جاروجنجال تبدیل خواهد شد چراکه از حمایت کامل جامعه برخوردارند.

قانون‌گذاران هم‌اکنون نسبت به عبارت توجیه الگوریتمی، گوش‌به‌زنگ هستند. این اصطلاح ورد زبان آنها شده است. خطرات گوشزد می‌شود. خطرات فعلی سبک و سنگین می‌شود. جعبه‌های سیاه الگوریتمی، درخشندگی عمومی خود را از دست می‌دهند.

اکنون کسی درباره تأثیر این بسترها بر گفتمان عمومی و شکل بخشیدن به آن شک ندارد؛ اما مسلماً در سال‌های اخیر، همچنان که الگوریتم‌ها به ترول‌ها و تحریک‌کنندگانی که نقش‌آفرینی بهتری در زمین بازی آنها داشتند، پاداش داده‌اند، عرصه عمومی را نیز ناهنجارتر، عصبانی‌تر و مستعد خشونت ساخته و از بازدهی آن کاسته‌اند.

بنابراین تنها کاری که می‌ماند این است که افراد کافی – کاربران کافی- نقاط را به هم وصل کرده و بفهمند که چه چیز آنها را در فضای مجازی این‌گونه ناراحت و نگران کرده است – و این محصولات، مانند قبلی‌ها بر سر تاک، پژمرده خواهد شد.

این مسئله، راه‌حل مهندسی هم ندارد. حتی اگر هوش مصنوعی مولد در زمینه تولید محتوا به چنان پیشرفتی برسد که بتواند بخش بزرگی از زحمات بشر را جایگزین کند، هرگز کره‌های چشم زیستی لازم را برای چشمک زدن به دلارهای تبلیغاتی که حیات غول‌های فناوری به آن وابسته است، نخواهد داشت. (عبارت «بستر محتوای تولید شده توسط کاربر» باید حقیقتاً با عبارت «و مصرف شده توسط کاربر» همنشین شود.)

نخست‌وزیر انگلیس، ترزا مه به‌تازگی در سخنرانی خود در مجمع جهانی اقتصاد داووس به شدت از ناکامی بسترهای شبکه‌های اجتماعی در عملیاتی کردن وجدان اجتماعی انتقاد کرد.

ترزا می، پس از حمله کردن به لایک‌های فیس‌بوک، توییتر و گوگل – چراکه به گفته او، سوءاستفاده از کودکان، بردگی نوین و انتشار محتوای افراطی و تروریستی را تسهیل می‌کند- به نظرسنجی موسسه ادلمن اشاره کرد که حاکی از افول جهانی اعتماد در شبکه‌های اجتماعی (و جهش همزمان اعتماد به روزنامه‌نگاری) است.

معنای نهفته در سخنان ترزا می، آشکار بود: در رابطه با غول‌های فناوری، رهبران جهان اکنون هم مشتاقند و هم قادرند که چاقوهای خود را تیز کنند. ترزا می تنها سخنرانی نبود که در مجمع داووس حسابی از شبکه‌های اجتماعی انتقاد کرد.

جورج سوروس، میلیاردر امریکایی اظهار داشت: «فیس‌بوک و گوگل به قدرت‌های انحصاری قوی‌تری بدل شده‌اند و مانعی بر سر راه نوآوری محسوب می‌شوند. این قدرت‌ها مشکلات مختلفی پدید آورده‌اند که کم‌کم داریم از آنها آگاه می‌شویم.» سوروس خواهان اقدام قانونی است تا تسلط بسترها بر ما از بین برود.

و درحالی‌که سیاستمداران (و روزنامه‌نگاران- و به‌احتمال‌زیاد خود سوروس) معمولاً به شدت منفور هستند، شرکت‌های فناوری به‌احتمال‌قوی این‌گونه نیستند. این شرکت‌ها در هاله‌ای قرار دارند که سال‌ها با کلمه «نوآوری» عجین بوده است. «پس زدن جریان اصلی» در فرهنگ واژگان آنها وجود ندارد. درست مثل عبارت «مسئولیت اجتماعی» که تا همین اواخر هم در واژگان آنها دیده نمی‌شد.

برای فهمیدن این‌که شاهزاده‌های دره سیلیکون تا چه اندازه در برخورد با خشم پرسروصدای عمومی، ناآماده هستند، فقط کافی است به چین‌های پیشانی زاکربرگ نگاه کنید که در اثر نگرانی پدید آمده است.

حدس زدن بازی

ابهام و پیچیدگی بسترهای بزرگ فناوری یک اثر زیان‌آور و غیرانسانی دیگر هم دارد- این تأثیر علاوه بر کاربران داده‌کاوی، برای تولیدکنندگان محتوا نیز قابل تصور است.

با وجود این، بستری مانند یوتیوب که برای استمرار جریان محتوا در صفحه‌های نمایش متعدد که بازدیدهای آن به میلیون‌ها بار می‌رسد (و میلیون‌ها دلار روانه صندوق گوگل می‌کند)، به ارتش داوطلبی از تولیدکنندگان نیاز دارد، در عمل، پرده‌ای مبهم بین خود و خالقان خود کشیده است.

یوتیوب یک مجموعه سیاست محتوایی دارد که می‌گوید بارگذاری کنندگان محتوا در این بستر باید از آنها تبعیت کنند؛ اما گوگل این سیاست‌ها را به نحو یکپارچه‌ای به کار نگرفته است؛ و یک رسوایی رسانه‌ای یا تحریم یک آگهی‌دهنده می‌تواند اقدامات ناگهانی در پی داشته باشد به‌طوری‌که خالقان به تقلا بیفتند که نکند کسی آنها را از صحنه اخراج کند.

امی داویسون (Aimee Davison) اظهار داشت: «اکثر مشکلات من با یوتیوب ناشی از رتبه دهی خودکار، پرچم‌های ناشناس (که مورد سوءاستفاده قرارگرفته‌اند) و کمک ناشناس و مبهم از پشتیبانی ایمیلی ناشناس است که قدرت اصلاحی اندکی دارد. بهبود رابطه با کاربران در یوتیوب به تعامل و مذاکره مستقیم انسانی و به اطلاع‌رسانی صریح دستورالعمل یکپارچه نیاز دارد.»

داویسون اضافه کرد: «یوتیوب باید محتوای خود را به نحو مناسبی بدون آن‌که سانسور هنری بیش از حد اعمال کند، رتبه‌بندی کند- و باید مدیریت حساب‌های کاربری ما را نیز به انسان‌ها بسپارند.»

یوتیوب حتی برای مدیریت برجسته‌ترین خالقان محتوای خود مانند «ستارگان یوتیوب/YouTube stars» نیز گام مثبتی برنداشته است.

اما زمانی که سازنده star در یوتیوب، لوگان پل (Logan Paul) – از شرکای اصلی سابق بستر تبلیغاتی گوگل – ویدئویی از خود را بارگذاری می‌کند که در آن، کنار جسد فردی که خودکشی کرده ایستاده و دلقک‌بازی درمی‌آورد؛ چه کسی را باید سرزنش کرد؟

پل باید به وجدان خود رجوع کند؛ اما سرزنش همچنین باید تک‌تک کسانی را نشانه بگیرد که به‌طور الگوریتمی در این بستر در حال مدیریت شدن (بخوانید آلت دست) هستند تا محتوایی را تولید کنند که به معنای واقعی کلمه گوگل را ثروتمند می‌کند زیرا مردم طبق نظام پاداش گوگل است که هدایت می‌شوند.

در قضیه پل، کارکنان یوتیوب نیز به‌طور دستی ویدئوی ارسالی او را بررسی و تأیید کردند؛ بنابراین حتی زمانی که یوتیوب ادعا می‌کند که ناظران انسانی برای بررسی محتوا پیش‌بینی کرده است، ظاهراً این ناظران انسانی زمان و ابزار کافی برای انجام کار در اختیار ندارند. گوگل اعلام کرده است که تعداد کارکنان نظارت و اصلاح را در سال جاری به ۱۰ هزار نفر افزایش خواهد داد.

بااین‌همه، این رقم در مقابل میزان محتوایی که در یوتیوب بارگذاری می‌شود، اصلاً به چشم نمی‌آید (طبق آمار موسسه استاتیستا، در جولای ۲۰۱۵، هر دقیقه ۴۰۰ ساعت ویدئو در یوتیوب بارگذاری شد؛ این رقم تا حالا به‌راحتی به ۶۰۰ یا ۷۰۰ ساعت در دقیقه رسیده است).

این اندازه بستر محتوایی بارگذاری رایگان یوتیوب، اداره منطقی آن را عملاً ناممکن می‌سازد. و زمانی که اندازه عظیم بستر، ردیابی فراگیر و فناوری سفارشی‌شده هدف‌گیری، قدرت اثرگذاری بر جامعه و شکل‌دهی آن را در سطح کلان ممکن می‌سازد، ابعاد مشکل گسترده‌تر می‌شود. طبق اعلام خود یوتیوب، ۱ میلیارد کاربر این شبکه، یک‌سوم کل اینترنت را به خود اختصاص داده است.

نگاهی به بخش مدیریت الگوریتمی تنظیمات عدم‌مداخله (بخوانید هزینه پایین) گوگل نشان می‌دهد که برخی تصمیمات این ابزارها، اگر بخواهیم محترمانه بگوییم، مورد تردید است. درواقع، الگوریتم‌های یوتیوب طبق اعلام کارکنان خود این شرکت، گرایش‌های افراط‌گرایانه دارد.

یوتیوب همچنین با این اتهام روبروست که اساساً افراط‌گرایی را در فضای مجازی خودکارسازی می‌کند- از طریق هل دادن بازدیدکنندگان به سمت بازدیدهای افراطی و نفرت‌آمیز. کافی است روی ویدئویی درباره یک اندیشمند جناح راستی مردم‌گرا – از طریق پیشنهاد الگوریتمی- کلیک کنید تا از گروه نفرت پراکنی نئونازی‌ها سر درآورید.

و آیا شرکت یوتیوب برای اصلاح این مشکل افراطی هوش مصنوعی تدبیری اندیشیده است؟ خیر؛ بلکه هوش‌های مصنوعی بیشتری هم در راه است…

و بسترهای دیگری هم در این شرکت هم شناسایی شده است که تحت هوش مصنوعی اخبار جعلی منتشر می‌کند، نفرت پراکنی را تشدید می‌کند و اقدامات ضداجتماعی را تحریک می‌کند.

و سامانه‌های مدیریت آن‌که تحت هوش مصنوعی قرار دارد، نادان‌تر از آن است که موقعیت را تشخیص دهد و مانند انسان، ظرایف را تشخیص دهد. (یا دستکم زمانی که وقت کافی به آنها برای تفکر داده شده است.)

خود زاکربرگ حدود یک سال پیش این‌طور نوشت که بحرانی که شرکت او با آن روبروست، رفته‌رفته واضح‌تر می‌شود: «ذکر این نکته لازم است که درک متن، تصویر و ویدئو مستلزم پیشرفت‌های بزرگ در حوزه هوش مصنوعی است تا بتوان قضاوت کرد که آیا این مطالب حاوی سخنان نفرت‌انگیز، خشونت تصویری، محتوای مستهجن و از این قبیل هست یا خیر. با نرخ فعلی پژوهش‌ها، امیدواریم که برخی از این موارد را در سال ۲۰۱۷ حل‌وفصل کنیم اما حل کردن برخی از آنها تا سال‌های متمادی امکان‌پذیر نیست.»

زمانی که مدیر فناوری از اصطلاح «سال‌های متمادی» استفاده می‌کند بدین معناست که «عملاً هرگز موفق به انجام این کار نخواهیم شد».

و اگر به مشکل بسیار سخت و ویرایشی مدیریت و اصلاح محتوا اشاره کنید، شناسایی تروریسم عملاً چالش نسبتاً دقیقی است.

درک طنز- یا حتی تشخیص این‌که یک محتوای خاص اصلاً ارزش ذاتی دارد یا کاملاً بدردنخور است؟ صریح بخواهم بگویم، اصلاً فکر نمی‌کنم هیچ رباتی بتواند این کار را انجام دهد.

مخصوصاً زمانی که مردم بر سر شرکت‌های فناوری فریاد می‌زنند که انسانیت بیشتری از خود نشان دهند؛ اما این شرکت‌ها همچنان در پی آن هستند که هوش مصنوعی بیشتری را به‌زور به ما بخورانند.