سی اس اس برای شما

 

 

 

به گزارش کارگروه بین الملل سی اس اس؛ وزیر ارتباطات با تأکید بر لزوم هوشیاری برای رقم زدن تحول دیجیتالی گفت:‌ امروز هر سه قوه داعیه مستقل بودن دارند و سرویس‌های متعدد جداگانه ارائه می‌دهند، اما اگر می‌خواهیم سرمایه‌های کشور در پست‌های مدیریتی به فساد کشیده نشوند، باید اختلافات را کنار بگذاریم.
‌ محمدجواد آذری جهرمی وزیر ارتباطات و فناوری اطلاعات در جشنواره فاوا اظهار داشت: ایران در سال گذشته در شاخص رشد در صنعت آی‌سی‌تی بیشترین رشد در منطقه آسیا اقیانوسیه و دومین در دنیا را داشته است.
وی گفت:‌در شاخص‌های بین‌المللی IDI ایران چهار رتبه رشد داشته که یکی از پارامترهای این شاخص پوشش نسل ۳ و ۴ موبایل است که در سال گذشته ۶۲ درصد پوشش در کشور وجود داشته است و امسال به لطف زحمات اپراتورها به ویژه همراه اول و سپس ایرانسل که قرار است به سرعت پوشش را تکمیل کند و برقراری ارتباط رومینگ ملی بین اپراتورهای خدمات اجباری (USO) و اپراتورهای موبایل پوشش پهنای باند موبایل در کشور گسترده ‌تر شده و انتظار می‌رود در آخرین رتبه‌بندی شاخص‌های IDI رشد ایران قابل‌ قبول‌تر باشد.
وی ادامه داد: در برنامه پنج ساله توسعه رشد ۱۳ رتبه‌ای کشور در شاخص‌های IDI تکمیل شده که امیدواریم این هدف را زودتر و حتی بیشتر محقق کنیم.
جهرمی با بیان اینکه رئیس‌جمهور دستور داده‌اند که باید وزارتخانه‌ها سند تحول دیجیتال را تدوین و شاخص‌های آن را احصاء کنند، گفت:‌برای تحول دیجیتال در حوزه‌های بهداشت، سلامت، شهر هوشمند، کشاورزی و بسیاری از موضوعات دیگر برنامه‌های جامع داریم.
وی با اشاره به مسائل مبتلابه تحولات دیجیتالی گفت:‌تحول دیجیتال موضوعاتی از جمله مصرف منابع آب، بهره‌وری،؛ کنترل‌های هوشمند و موضوعات این‌چنینی در تمام حوزه‌ها را دربرمی‌گیرد.

 

وی با بیان اینکه بهره‌وری به عنوان یک تکلیف در سند برنامه ششم ابلاغ شده، گفت:‌ اما برخی دستگاه‌ها مقابله بهره‌وری می‌ایستند.
جهرمی با بیان اینکه در موضوعات بین‌دستگاهی و کلان این حوزه شورای عالی فضای مجازی باید سیاست‌گذاری و هماهنگی کند، گفت: در موضوعات مختلف، وزارت ارتباطات تنها وظیفه ندارد و برای  بسیاری از سازمان‌ها مسئولیت تعریف شده است که باید مطالبه برای انجام وظایف و هم‌افزایی از سازمان‌ها شکل بگیرد. 
وی گفت: باید با گفتمان‌سازی و همراهی همه ظرفیت‌های فعالان اقتصادی، بردارها را هم‌جهت کنیم و تحول دیجیتال را پیش از آنکه برایمان رقم بزنند خودمان رقم بزنیم تا در بازارهای عمومی سهم بگیریم که البته توان این کار را داریم و در غیر این صورت، مستعمره دیگران می‌شویم.
وی گفت:‌در سال ۹۷ باید با همفکری بتوانیم اختلافات را کنار بگذاریم.
وزیر ارتباطات و فناوری اطلاعات افزود: امروز هر قوه می‌گوید مستقل هستم و هرکدام سرویس‌های متعدد را جداگانه ارائه می‌کنند، اما اگر می‌خواهیم با فساد مقابله کنیم همه را باید با هم پیوند بزنیم. موضوع کاهش ۱۲.۵ درصدی سالانه مراجعات مردم به دستگاه‌ها برای دریافت خدمت یک تکلیف است که تنها با دولت الکترونیک محقق می‌شود.
وی گفت:‌ دزد دزد گفتن، برخورد کردن با دزد و گذشت نکردن از کسانی که اعتماد مردم را خدشه‌دار کرده‌اند مهم است اما مهم‌تر اصلاح کردن فرایند است که سرمایه‌های کشور که در پستی قرار می‌گیرد به وسیله اختیاراتی که به آنها می‌دهیم را فاسد نکنیم، نباید بگذاریم این فرایندها شکل بگیرد.
جهرمی گفت:‌ امروز به عنوان یک وزیر می‌خواهم دو دستگاه را بیاورم که با هم تبادل اطلاعات کنند، اما درنهایت موفق نمی‌شوم.

 

وی ادامه داد: یک مقامی هم درست کرده‌اند که امروز خواهش می‌ کنم که دیگر مقام عالی وزارت را نگویید، می‌گویند چشم اما انجام نمی‌دهند.
جهرمی گفت:‌ امروز بزرگترین اقدام ضدامنیتی به اشتراک نگذاشتن اطلاعات است.

 

 

ادامه مطلب

به گزارش کارگروه فناوری اطلاعات سی اس اس، به نقل از «technologyreview»؛ به صورت طبیعی، رایانه، لپ تاپ ، تلفن هوشمند و ابزارهای مشابه با گذشت زمان و چندین سال از شروع فعالیت، کند شده و دیگر توانایی اجرا و مدیریت مناسب نرم افزارهای جدید یا حتی نمونه های قدیمی را ندارند. برای نمونه می توان به کاهش عمدی توان آیفون به علت میزان باتری آن اشاره کرد. پژوهشگران گوگل به تازگی جزئیات تحقیقاتی را منتشر کرده اند که به لپ تاپ و تلفن های هوشمند اجازه می دهد با گذشت زمان یاد بگیرند، وظایف را به شکلی بهتر و سریع تر انجام بدهد.

پژوهشگران برای دستیابی به هدف بالا روی یکی از مسائل محاسباتی با نام «پری‌فچینگ۱» (prefetching) تمرکز کردند. در پری‌فچینگ سعی می شود به منظور جلوگیری از ایجاد گلوگاه، داده های مورد نیاز برای واکشی را پیش بینی کنند؛ اما با قدرتمندتر شدن رایانه ها این عملیات سخت تر می شود.

محققان برای بهبود پری‌فچینگ از یادگیری عمیق  استفاده کردند؛ اما آماری از میزان افزایش کارایی رایانه ها ارائه ندادند.

هینر لیتز (Heiner Litz)، از پژوهشگران دانشگاه کالیفرنیا معتقد است، باید بتوان در همه ی بخش های یک رایانه- از پایین ترین سطح سیستم عامل تا نرم افزارهای رایج کاربردی- از یادگیری ماشینی استفاده کرد.

دستاورد بالا می تواند فرصت های بسیاری را برای بهبود کیفیت سامانه ها فراهم کند؛ زیرا معماری تراشه ها در چند سال گذشته تغییر زیادی نکرده و به نظر می رسد قانون مور۲ (Moore Law) با چالش های مختلفی مواجه شده است.

تیم کاراسکا (Tim Kraska)، دانشیار MIT، توضیح داد از رویکرد یاد شده می تواند در الگوریتم های سطح بالا و پیشرفته نیز استفاده کرد. برای نمونه یک پایگاه داده احتمالاً می تواند به صورت خودکار، تفاوت مدیریت داده های مالی و شبکه های اجتماعی را فرا گیرد. همچنین یک نرم افزار می تواند خودش را به گونه ای آموزش بدهد که در برابر عادات خاص هر کابر عملکردی مؤثرتر داشته باشد.

کاراسکا گفت:

ما می خواهیم یک رایانه یا سخت افزار جامع ایجاد کنیم. یادگیری ماشینی، قابلیت سفارشی سازی رایانه، هسته، داده های خاص و الگوهای دسترسی به کاربران را به شکل خودمختار فراهم می آورد.

البته وی اشاره کرد به کارگیری یادگیری ماشینی باعث نمی شود هزینه ی محاسبات کاهش پیدا کنند و این موضوع به سرعت تغییر نخواهد کرد؛ اما رویکرد مذکور می تواند قدمی رو به جلو برای ایجاد این تحول در آینده باشد.

لیتز تشریح کرد هدف نهایی دستیابی به سامانه هایی است که به صورت پیوسته روی خود نظارت داشته و یاد می گیرند.


  1. به عملیات انتقال داده از حافظه ی اصلی به موقت برای استفاده های بعدی پری‌فچینگ گفته می شود.
  2. بر اساس قانون مور هر دو سال، تعداد ترانزیستورهای موجود در یک تراشه با مساحت مشابه دو برابر خواهد شد؛ اما دانشمندان معتقدند دیگر به سختی می توان بر پایه ی این قانون قطعات را کوچک کرده و عملکردی پایدار از آنها دریافت کرد. به همین دلیل در حال ایجاد معماری های جدیدی مانند ساختار طبقاتی تراشه ها هستند.
ادامه مطلب

 

به گزارش کارگروه فناوری اطلاعات سی اس اس، به نقل از «iflscience»؛ گروهی از پژوهشگران دانشگاه نیو ساوت ویلز استرالیا (University of New South Wales)، موفق به راه اندازی سطحی از رایانش کوانتومی شده اند که برای اولین بار، امکان برقراری ارتباط بین ۲ کیوبیت را فراهم می کند.

 

این نخستین مرتبه است که دانشمندان موفق می شوند فعل و انفعالات میان ۲ بیت کوانتومی را مدیریت کنند. به علاوه آن ها توانسته اند مداری کوانتومی با کمترین نویز حد کنونی تولید کرده، پایداری کیوبیت ها را افزایش دهند. همچنین مدت زمان نگهداری از داده ها، به ۳۰ ثانیه افزایش یافته است.

 

هدف محققان، دستیابی به اتم رایانه کوانتومی سیلیکونی است که جایگاه دقیق اتم ها در آن مشخص باشد. آنان امیدواراند در این حوزه، سامانه های مقیاس پذیر تولید کنند.

 

میشل سایمونز (Michelle Simmons)، یکی از پژوهشگران این طرح گفت:

تحقیقات بالا، چشم اندازی امیدبخش را برای ساخت سامانه های چند کیوبیتی با بهره گیری از اتم های ما پدید می آورد. مزیت رقابتی ما این است که می توانیم کیوبیت باکیفیت خود را در هر نقطه ای از تراشه که بخواهیم قرار دهیم، نتیجه را مشاهده کرده، نوع رفتارش را ارزیابی نماییم. سپس قادر خواهیم بود؛ بیت کوانتومی دیگری را در نزدیک قبلی قرار داده، تعاملشان را با یکدیگر بررسی کنیم. همچنین درنهایت می توانیم به تولید محصول خود بپردازیم.

 

پژوهشگران ۳ اتم فسفر، درون تراشه ای سیلیکونی، قرار دادند. کیوبیت اول، با ترکیب ۲ اتم و دیگری با ذره مانده شکل گرفت. این افراد، از نوعی الکترود برای مدیریت رابطه بیت های کوانتومی استفاده می کردند. آن ها روشی پدید آوردند تا مطمئن شوند چرخش اتم ها به شیوه درستی صورت می گیرد. به عبارت دیگر، هنگامی که یکی از آن ها به سوی بالا اشاره می کند، دیگری سمت پایین را نشان می دهد و به عکس.

 

متئو بروم (Matthew Broome)، پژوهشگر دانشگاه کوپنهاگ گفت:

در رایانه های کوانتومی، چرخش هماهنگ بالا، برای برآورد محاسبات پیچیده، یک موضوع ضروری است. این دستاورد، نقطه عطفی در فناوری به شمار می آید.

 

مشاهدات نشان داد:

برخلاف نظریه های پیشین، همبستگی کیوبیت ها به جای ۲۰ نانومتر، در معماری ۱۶ نانومتری رخ می دهد.

 

شایان یادآوری است:

پیش از این، داده ها حداکثر به مدت یک ثانیه ذخیره شده، سپس از بین می رفتند.

 

ادامه مطلب

به گزارش کارگروه بین الملل سی اس اس؛

خلاصه: عزم ملی چین در تبدیل شدن به رهبر جهان در حوزه هوش مصنوعی تلاشی است که نه‌تنها برای برابری کردن با قدرت اقتصادی امریکا صورت می‌گیرد بلکه برای کنار گذاشتن امریکا از عرصه راهبردی انجام می‌شود. اگرچه جاه‌طلبی‌های اقتصادی، محرک حضور پکن در این حوزه است، اما این کشور به‌روشنی اعلام کرده است که توسعه هوش مصنوعی به‌طور همزمان با هدف کاربردهای نظامی نیز صورت می‌گیرد که می‌تواند ماهیت جنگ را تغییر داده و امریکا را از لحاظ ژئوپلتیک (جغراسیاست) در موقعیت نامطلوبی قرار دهد.

سابقه: چین در جستجوی پیشی گرفتن از برتری نظامی و فنی امریکا از طریق هوش مصنوعی پیشرفته و یادگیری ماشینی است و در این مسیر، به‌سرعت موتورهای نوآوری خود را وارد میدان عمل کرده است. کاپیتالیسم منحصربه‌فرد چین و کنترل دولت، نوعی نوآوری از پایین به بالا را ممکن ساخته است که تحت هدایت گسترده حزب کمونیست چین قرار دارد. رویکرد ملی چین بدین معنا است که امریکا خود را در مسابقه با یک رقیب راهبردی می‌بیند.

سفیر جوزف دترانی، مدیر سابق عملیات‌های آسیای شرقی، سیا

«آینده هوش مصنوعی، برای کاربرد تجاری و امنیتی، نامحدود به نظر می‌رسد؛ چین به‌سرعت این فناوری نوین را با کیفیتی قابل‌ملاحظه و با منابع خصوصی پیگیری می‌کند.»

حرکت ملی چین به سوی توسعه هوش مصنوعی را می‌توان در تعداد خالص مقالات دانشگاهی اخیر که چین درباره این موضوع منتشر کرده است، مشاهده کرد. از سال ۲۰۱۴، چین از لحاظ تعداد مقالات منتشر شده درباره یادگیری عمیق از امریکا پیشی جسته است و در سال ۲۰۱۶ این روند را با افزایش بیست‌درصدی ادامه داده است. اگرچه افرایش شمار مقالات هوش مصنوعی لزوماً به معنای پیشرفت کیفی در این عرصه نیست اما بدیهی است که چین به دنبال پیشرفت قابل‌ملاحظه در توسعه هوش مصنوعی خود است.

در ماه مارس ۲۰۱۷، چین آزمایشگاه ملی مهندسی فناوری یادگیری عمیق را تحت رهبری بایدو راه‌اندازی کرد. تشخیص صوت و تصویر، شناسایی بیومتریک و اشکال جدید تعاملات انسان و ماشین ازجمله اهداف این مرکز جدید تحقیقاتی اعلام شد.

 در ماه جولای ۲۰۱۷، شورای دولتی چین با انتشار طرح توسعه نسل جدید هوش مصنوعی، راهبرد این کشور برای در دست گرفتن رهبری جهانی در عرصه توسعه هوش مصنوعی تا سال ۲۰۳۰ را ترسیم کرد. این طرح که عمدتاً از طرح ۲۰۱۶ دولت اوباما برای ایجاد تحول در هوش مصنوعی الگو گرفته است، شامل ظرفیت‌سازی بومی برای ایجاد صنعت ۱۵۰ میلیارد دلاری هوش مصنوعی چین – تحت هدایت غول‌های فناوری بایدو، علی‌بابا و تنسنت – و همچنین از طریق ادغام و جذب خارجی، سرمایه‌گذاری به‌صورت سهام، سرمایه‌گذاری خطرپذیر و راه‌اندازی مراکز تحقیق و توسعه در خارج از کشور است.

چین چندین ویژگی اجتماعی و سازمانی دارد که احتمالاً مزیتی برای توسعه هوش مصنوعی پیشرفته در این کشور محسوب می‌شود. نخستین ویژگی این است که کیفیت خاص اقتصاد بازار سوسیالیستی چین امکان کنترل شدید نیروهای بازار و حضور جدی در این عرصه را به دولت این کشور می‌دهد. این نه‌تنها بدین معنا است که پکن می‌تواند هرکجا که نیروهای بازار نوعاً ناکام می‌ماند، به سراغ نوآوری‌های تازه برود، بلکه علاوه بر آن سطح منحصربه‌فردی از همکاری بین شرکت‌های فناوری چینی و دولت پدید آورده است. این امر به‌منزله یک اهرم اقتصادی فوق‌العاده برای پکن عمل می‌کند تا به کمک آن، نفوذ سیاسی خود را در گوشه و کنار جهان گسترش دهد. برای مثال می‌توان به طرح ابتکاری چین موسوم به یک کمربند، یک راه اشاره کرد که به این نفوذ کمک می‌کند.

شاید مهم‌تر از همه، دسترسی تقریباً کامل دولت چین به داده‌های مصرف‌کنندگان باشد – که به‌منزله خون حیاتی در رگ‌های یادگیری ماشینی و هوش مصنوعی است. دسترسی دولت به این داده‌ها با کمترین حفاظت از حریم خصوصی همراه است و گاهی هیچ حفاظتی وجود ندارد. کسب‌وکار نوپای ییتو تک (Yitu Tech) که رابطه نزدیکی با امنیت کشور دارد نیز به داده‌های بیومتریک ۱٫۸ میلیارد چینی دسترسی دارد و از این داده‌ها در نرم‌افزار تشخیص چهره خود استفاده می‌کند. اما اگرچه دولت چین به دسترسی خود به داده‌های شهروندان خود ادامه می‌دهد – و آن را با شرکای صنعتی به اشتراک می‌گذارد – به نظر می‌رسد اخیراً تلاش‌هایی برای حفاظت از حریم خصوصی داده‌ها در میان صنایع چین صورت گرفته است؛ تلاش‌هایی مشابه قانون حفاظت از داده‌های عمومی اتحادیه اروپا که می‌تواند پیامدهای درازمدتی برای توسعه هوش مصنوعی چین در پی داشته باشد.

سفیر جوزف دترانی، مدیر سابق عملیات‌های آسیای شرقی، سیا

«چین منابع زیادی را به تحقیق و توسعه درباره کلیه انواع هوش مصنوعی که کاربردهای تجاری، امنیتی و نظامی دارد، اختصاص داده است. گفته می‌شود که در طرح پنج‌ساله اخیر چین، مبلغی بیش از صد میلیارد دلار به هوش مصنوعی اختصاص داده است. این توجه ویژه نشان می‌دهد که رهبر چین علاقه زیادی دارد که کشورش به رهبر جهانی در عرصه هوش مصنوعی تبدیل شود. همچنان که چین با برنامه ابتکاری خود موسوم به یک کمربند، یک راه و بانک سرمایه‌گذاری زیرساخت آسیا جلو می‌رود – پروژه‌هایی که دامنه آن به بیش از هشتاد کشور می‌رسد – هوش مصنوعی به بخشی درونی و ذاتی از این زیرساخت‌های بین‌المللی تبدیل می‌شود. این کار به چین اجازه می‌دهد تا از قابلیت‌های هوش مصنوعی خود بهره‌مند شده و آن را بیشتر توسعه دهد و درنهایت، نقش رهبری خود را با فناوری چندمنظوره نوین تضمین کند.»

ویلیام کارتر، معاون مدیر، برنامه سیاست فناوری، CSIS

«از دیدگاه چین، هوش مصنوعی به محاسبات موبایلی و دسکتاپی قبل از ظهور آن شباهت خواهد داشت. درواقع یک انقلاب اقتصادی خواهد بود که نسل کاملاً جدیدی از توانمندی‌های دیجیتالی را در سامانه‌های فیزیکی پدید می‌آورد؛ توانمندی‌هایی که قادرند در گوشه و کنار جهان آن را به فروش برسانند و کار بگذارند. بنابراین توسعه هوش مصنوعی در نظر چینی‌ها فرصتی برای گسترش دادن حضور خود و تنظیم خط مبنایی برای نحوه تعامل کشورهای جهان به‌ویژه کشورهای درحال‌توسعه با فناوری و داده است.

موضوع: پیگیری هوش مصنوعی از سوی چین به ارتش آزادی‌بخش خلق این کشور نیز سرایت کرده است و این ارتش از طریق راهبرد ملی ادغام نظامی- غیرنظامی در پی بهره‌گیری از این فناوری است. این نوع نظامی سازی هوش مصنوعی، پیامدهای گسترده‌ای پیرامون نحوه حفظ قدرت سیاسی چین در خارج از مرزها و اجرای نظامی‌گری آن به همراه دارد – راهبردی که در گزارش نوامبر ۲۰۱۷ مرکز امنیت نوین امریکا، از آن با عنوان جنگ «هوشمندانه» یادشده است. در معنای کلان، پیشرفت‌های هوش مصنوعی چین، ظرفیت پشتیبانی از فرماندهی و کنترل نظامی استنتاج اطلاعاتی، آموزش پیشرفته مبارزه و آمادگی نظامی، متناسب‌سازی عملیات‌های سایبری و اطلاعاتی علیه دشمنان و ایجاد آسیب‌پذیری‌های ضد جاسوسی را دارد.

السا کانیا، همکار کمکی، برنامه فناوری و امنیت ملی، مرکز امنیت نوین امریکا (CNAS)

«به طور خاص، نسل جدید برنامه توسعه هوش مصنوعی در چین به‌روشنی رویکرد ادغام نظامی- غیرنظامی را منعکس می‌کند که با هدف تضمین این امر صورت می‌گیرد که پیشرفت‌ها در حوزه هوش مصنوعی می‌تواند به‌خوبی به‌عنوان اهرمی برای دفاع ملی به کار گرفته شود. برای تحقق این هدف، چین به ایجاد و طبیعی سازی سازوکارهایی برای برقراری هماهنگی و همکاری میان مؤسسات پژوهشی علمی، دانشگاه‌ها، سازمان‌ها و واحدهای صنعتی نظامی خواهد پرداخت و همزمان درصدد حصول اطمینان از این مسئله بر خواهد آمد که منابع نوآوری نظامی و غیرنظامی «در کنار یکدیگر و به طور اشتراکی» شکل خواهد گرفت. این راهبرد توسط کمیسیون توسعه ادغام نظامی غیرنظامی حزب کمونیست چین که در اوایل سال ۲۰۱۷ تحت رهبری خود شی جین‌پینگ راه‌اندازی شد، پیگیری می‌شود. درنتیجه، مرزهای موجود بین پیشرفت‌های نظامی و غیرنظامی، در هوش مصنوعی به‌شدت تیره‌وتار می‌شود.»

سفیر جوزف دترانی، مدیر سابق عملیات‌های آسیای شرقی، سیا

«با توجه به برنامه نوسازی نظامی جاه‌طلبانه چین، و تمرکز این کشور روی عرصه‌های فضا و سایبر، می‌توان چنین تصور کرد که هوش مصنوعی را در مفاهیم فرماندهی، کنترل، ارتباطات، رایانه، اطلاعات، نظارت و شناسایی به کار خواهند گرفت. به‌کارگیری فوری این فناوری در فعالیت‌های چین در دریای جنوبی چین و پیگیری ضد ورود/ منطقه ممنوعه، واضح است.»

 پکن نیز مانند راهبرد جبرانی سوم پنتاگون، در جستجوی وارد کردن هوش مصنوعی بسیار پیشرفته به عرصه روباتیک به‌منظور استفاده در سامانه‌های هدایت و کنترل عملیاتی خودکار است. خودکارسازی هم‌اکنون در ناوگان بدون سرنشین هوایی، زمینی و دریایی چین پیاده شده است. عملیات‌های تیمی انسانی و خودکار نظیر آن‌هایی که از پهپادهای رنگین‌کمان ۵ (CH-5) یا پهپاد رزمی شناسایی دریایی D3000 استفاده می‌کنند، به طور خاص می‌تواند در کنترل فضای هوایی و آب‌های خارج از سرزمین چین مفید باشد.

چنانچه پهپادهای چینی با هدف ایجاد گروه‌هایی به‌عنوان بخشی از راهبرد ضد ورود/ منطقه ممنوعه چین در دریای جنوبی چین، از طریق شبکه‌های عصبی به هم متصل شوند، پکن می‌تواند مانعی بر سر راه آزادی عمل ناوبری امریکا در منطقه باشد. در دسامبر ۲۰۱۷، چینی‌ها در نمایش هوایی گوانگژو بزرگ‌ترین پرواز گروهی قرن را انجام دادند. در این نمایش، بیش از هزار پهپاد به شکل هماهنگ به پرواز درآمدند. در ماه ژوئن همان سال نیز ۱۱۹ پهپاد بال ثابت به پرواز درآمد.

 چین در کنار پیگیری استقلال در عرصه روباتیک، به دنبال بهره‌گیری از هوش مصنوعی به‌عنوان اهرمی توانمندساز در حوزه تصمیم‌گیری و تحلیل اطلاعاتی بهینه است. پیشرفت‌ها در حوزه خودکارسازی حسگرهای مختلف و پردازش اطلاعات به‌دست‌آمده – نظیر عکس‌برداری ماهواره‌ای – زمان تصمیم‌گیری را به سود مزیت راهبردی و حتی چه‌بسا پیشگویی زمان انجام رزمایش‌های نظامی دشمنان کوتاه می‌کند. چین هم‌اکنون در حال برنامه‌ریزی است تا زیردریایی‌های هسته‌ای خود را با نوعی هوش مصنوعی مجهز کند که با برخورداری از توان پالایش مقادیر عظیم داده، از تصمیم‌گیری فرماندهان دریایی پشتیبانی مناسبی به عمل آورند.

 درهرحال این بحث وجود دارد که با پیدایش هوش مصنوعی و یادگیری ماشینی پیشرفته، سرعت تصمیم‌گیری ممکن است از توان شناختی بشر فراتر رود؛ به این معنا که درنهایت می‌توان انسان‌ها را از چرخه تصمیم‌گیری درباره فرماندهی و کنترل نظامی کنار گذاشت.

هر چه اطلاعات بیشتری با هدف کمک به فرایند تصمیم‌گیری وارد سامانه‌های هوش مصنوعی شود، احتمال مفید بودن این سامانه‌ها در شبیه‌سازی مجازی صحنه جنگ بیشتر می‌شود. با توجه به کمبود تجربه جنگی ملموس در ارتش آزادی‌بخش خلق، این شبیه‌سازی‌های جنگی سرشار از اطلاعات می‌تواند ارتش چین را به نحو بهتری برای رویارویی با دشمن هم‌طرازی نظیر امریکا آماده کند.

شاید محتمل‌ترین ابزار واسطی که امکان استفاده جدی هوش مصنوعی پیشرفته در آن می‌رود، جنگ روانی و عملیات سایبری باشد. خودکارسازی امکان تنظیم مقیاس و یادگیری ماشینی امکان تسهیل پیام‌رسانی و حملات سفارشی را فراهم می‌کند. چین می‌تواند از هوش مصنوعی برای جمع‌آوری مشخصات اهداف مدنظر در شبکه‌های اجتماعی و سفارشی کردن حملات با هدف شکل بخشیدن و تقویت روایت‌های خاص بهره‌مند شود. شرکت‌های چینی نظیر iFlyTek هم‌اکنون از توان اسپوف کردن (جایگزین کردن یکسری از فایل‌های یک برنامه به جای برنامه‌ای دیگر) ویدئو و صدا برخوردار هستند. اسپوف یک ابزار بالقوه مخرب است که در عملیات روانی به کار گرفته می‌شود. هکرهای چینی مجهز به هوش مصنوعی پیشرفته می‌توانند به طریقی مشابه، حملات را سفارشی کرده یا با استفاده از گنجینه‌ای از ربات‌های هک خودکار در کارزارهای بسیار سفارشی اسپرفیشینگ، مدافعان شبکه را از پا درآورند.

 توسعه هوش مصنوعی در چین برای تقویت نظام نظارت و سانسور داخلی نیز پیامدهایی برای ضد جاسوسی دارد. حضور دائمی و فراگیر دوربین‌های مداربسته و کنترل پیش‌رونده ارتباطات برخط در چین – همراه با ظهور هوش مصنوعی که داده‌های بیومتریک (زیست‌سنجشی) را با سرعت زیاد پردازش می‌کند – بدین معنا است که حفظ محرمانگی جاسوسان امریکایی در این کشور بیش‌ازپیش دشوارتر می‌شود. چین همچنین قادر است داده‌های امریکا را پردازش کند – نظیر بیش از ۲۰ میلیون پروفایل کارکنان فدرال امریکا که از اداره مدیریت کارکنان به سرقت رفت و در ژوئن ۲۰۱۵ کشف شد – و پروفایلی از اهداف بالقوه برای جمع‌آوری اطلاعاتی خود تهیه کند.

دترانی، مدیر سابق عملیات‌های آسیای شرقی، سیا

«در حال حاضر، موفقیت چین در به‌کارگیری هوش مصنوعی در اهداف مرتبط با امنیت داخلی (مانند تشخیص چهره)، به‌عنوان مکملی برای کاری که درزمینه بیومتریک انجام می‌دهند، دستاورد ابزارهایی است که برای اهداف کنترل و نظارت در اختیار وزارت امنیت عمومی قرار دارد.»

ویلیام کارتر، معاون مدیر، برنامه سیاست فناوری، CSIS

«عرصه‌ای که واقعاً نگران آن هستم و عرصه‌ای که به گمان من چینی‌ها پیشرفت زیادی در آنجا داشته‌اند، حوزه ضد جاسوسی است. چینی‌ها اطلاعات بسیار زیادی را درباره مردم خود جمع‌آوری می‌کنند. درباره خارجی‌ها هم تا آنجا که بتوانند این اطلاعات را جمع‌آوری می‌کنند. آنها از هر فردی که وارد چین می‌شود، انگشت‌نگاری کرده و داده‌های فراوانی را درباره این افراد جمع‌آوری می‌کنند. سپس داده‌های جمع‌آوری‌شده را وارد پایگاه‌های داده‌ای می‌کند که تحت پشتیبانی یادگیری ماشینی و هوش مصنوعی قرار دارد. هدف آنها از انجام این کارها، شناسایی تهدیدات بالقوه امنیتی برای دولت چین است – جاسوسان بالقوه خارجی که درواقع با هدف استخدام افرادی در داخل چین و استخراج اطلاعات دارای طبقه‌بندی وارد خاک این کشور می‌شوند. آنها همچنین از هوش مصنوعی برای شناسایی آن دسته از اتباع چینی استفاده می‌کنند که ممکن است به استخدام دولت‌های بیگانه و سرویس‌های اطلاعاتی خارجی درآمده باشند. این مسئله برای ما بسیار جدی است.»

السا کانیا، همکار کمکی، برنامه فناوری و امنیت ملی، مرکز امنیت نوین امریکا (CNAS)

«ارتش آزادی‌بخش خلق، مطابق با رویکرد نامتقارن خود به نوسازی نظامی، می‌تواند از هوش مصنوعی برای هدف گرفتن ضعفی که در روش‌های جنگی امریکا دیده می‌شود، استفاده کند. برای نمونه، ارتش آزادی‌بخش خلق روی توسعه جنگ یکپارچه شبکه‌ای- الکترونیکی به‌منظور هدف گرفتن شبکه‌های جنگی امریکا تمرکز کرده است و توانمندی به‌کارگیری هوش مصنوعی، چه در فراهم ساختن امکان جنگ الکترونیک شناختی یا عملیات‌های سایبری خودکار، می‌تواند این قابلیت‌ها را هر چه بیشتر تقویت کند. ارتش آزادی‌بخش خلق، به مزایای بالقوه هجوم هماهنگ و دسته‌جمعی برای اشباع کردن توان دفاعی سکوهای بسیار مهم امریکا از قبیل جت‌های جنگی یا ناوهای هواپیمابر پی برده است و حتی این سناریو را در موزه نظامی خود در پکن در معرض نمایش گذاشته است. ارتش آزادی‌بخش خلق همچنین برای خنثی کردن برتری فعلی امریکا در حوزه زیر دریا، درحال‌توسعه ناوگان زیردریایی خودکار است و گزارش‌ها حاکی از آن است که استفاده از «توان ذهنی افزوده هوش مصنوعی» در زیردریایی‌های هسته‌ای را با هدف دستیابی به مزیت رقابتی در دستور کار خود قرار داده است. در حال حاضر، توانمندی‌های ارتش آزادی‌بخش خلق درزمینه پشتیبانی از اطلاعات، همچنان محدودیتی بر سر راه ظرفیت این ارتش برای نمایش قدرت به شمار می‌رود. درهرحال، به‌کارگیری هوش مصنوعی برای تقویت اطلاعات، نظارت و شناسایی می‌تواند کارایی این توانمندی‌ها را ارتقا دهد. به‌علاوه، به نظر می‌رسد که ارتش آزادی‌بخش خلق در حال به‌کارگیری هوش مصنوعی در موشک‌های نسل بعدی و همچنین احتمالاً دفاع موشکی خود است و در این مسیر درصدد ارتقای دقت و تأثیر مرگبار این موشک‌ها است. باید منتظر ماند و دید که آیا ارتش آزادی‌بخش خلق، هوش مصنوعی را برای پشتیبانی از سامانه‌های هسته‌ای خود به کار می‌گیرد یا خیر؛ این مسئله پرسش‌هایی را درباره تأثیر احتمالی بر ثبات هسته‌ای و راهبردی مطرح می‌کند.»

واکنش: از سال ۲۰۱۴، ارتش امریکا راهبرد جبرانی سوم خود را با تلاش برای همکار نزدیک‌تر با غول‌های فناوری کشور که در دره سیلیکون و سایر نقاط مستقر هستند، و با تلاش برای دستیابی سریع به فناوری برتر با اهداف نظامی و اطلاعاتی آغاز کرده است. و درحالی‌که چین احتمالاً از برتری‌های اجتماعی و سازمانی برخوردار است تا هوش مصنوعی را به‌سرعت توسعه دهد، این احتمال هم وجود دارد که این برتری‌ها باعث شود که این کشور در بلندمدت، در برابر اقدامات متقابل آسیب‌پذیر باشد.

یکی از موانع بالقوه سازمانی که بر سر راه به‌کارگیری هوش مصنوعی پیشرفته در سامانه‌های نظامی و اطلاعاتی امریکا وجود دارد، به الزاماتی مربوط می‌شود که برای توجیه اقدامات – به‌ویژه اقدامات مرگبار – در یک دموکراسی پیش‌بینی شده است. برای اکثر سامانه‌های هوش مصنوعی و یادگیری ماشینی، این‌که چگونه به این نتیجه می‌رسند که یک «جعبه سیاه» باقی بمانند و درنتیجه، نوعی هوش مصنوعی «توجیه‌پذیر» را توسعه دهند که تصمیم‌گیری بر مبنای آن قابل‌اعتماد باشد، حائز اهمیت است. چین لزوماً با محدودیت‌های مشابه برای توجیه اقدامات بیرونی خود روبرو نیست.

 درهرحال، در بلندمدت، این امر ممکن است چین را در برابر اقدامات متقابل علیه هوش مصنوعی این کشور نظیر سوءاستفاده از داده‌های آن یا تخریب یا دست‌کاری داده پروتکل‌های آن، آسیب‌پذیر کند. بدون وجود انگیزه‌های اجتماعی برای حضور در فرایند تصمیم‌گیری و بررسی مسیر منتهی به نتیجه‌گیری، شناسایی این‌که امریکا چه زمانی ممکن است اقدامات متقابلی را به کار گیرد که احتمال دارد سامانه‌های و فرماندهان نظامی چین را از راه به در برد، دشوار خواهد بود.

السا کانیا، همکار کمکی، برنامه فناوری و امنیت ملی، مرکز امنیت نوین امریکا (CNAS)

«ارتش امریکا باید ظهور ارتش آزادی‌بخش خلق را به‌عنوان یک رقیب هم‌طراز جدی به رسمیت بشناسد و ماهیت رقابت نظامی و فناورانه دو کشور را مورد ارزیابی مجدد قرار دهد. همچنان که چین با هدف رقابت با امریکا درصدد تبدیل شدن به یک ابرقدرت است، این مسابقه نوآوری به‌عنوان جبهه جدیدی از رقابت راهبردی در حال ظهور و بروز است. در تاریخ اخیر، امریکا برتری آشکار و اغلب بدون رقیب را در عرصه نظامی و فناوری در اختیار داشته است، اما با توجه به ظهور چین و انتشار سریع این فناوری‌ها، شاید دیگر دستیابی به برتری مشابه در عرصه هوش مصنوعی برای امریکا ممکن نباشد. درنتیجه، شاید بهتر باشد که برتری و مزیت ارتش امریکا از طریق به‌کارگیری پیشرفت‌های احتمالاً بادوام‌تر در ابعاد انسانی و سازمانی نوآوری تضمین شود؛ زیرا چه‌بسا ارتش چین در این ابعاد هنوز با چالش روبرو باشد.»

پیش‌بینی: مسابقه راهبردی بین امریکا و چین برای در اختیار گرفتن دست برتر در حوزه هوش مصنوعی در مراحل اولیه خود قرار دارد و هنوز معلوم نیست چه کسی در این عرصه نوین از فناوری، رهبری جهان را از آن خود خواهد کرد. با وجود پیشرفت‌های چینی‌ها، غول‌های فناوری امریکا نظیر آلفابت، اپل، گوگل، آمازون، فیس‌بوک و مایکروسافت در صف اول توسعه هوش مصنوعی باقی مانده‌اند و با بهره‌گیری از جایگاه چندملیتی منحصربه‌فرد خود به نوآوری در این عرصه ادامه خواهند داد. چین نیز در امتداد برنامه ابتکاری تجاری خود موسوم به یک کمربند، یک راه، به توسعه صنعت خود برای تسهیل نوآوری هوش مصنوعی ادامه خواهد داد.

ویلیام کارتر، معاون مدیر، برنامه سیاست فناوری، CSIS

«اگر از دسترسی به داده صحبت می‌کنید، باید اشاره کنیم که امریکا در مقایسه با چین، به دلیل نفوذ جهانی خود از این نظر در وضعیت بهتری قرار دارد و به‌واسطه همین نفوذ جهانی، درباره طیف وسیع‌تر و متنوع‌تری از افراد اطلاعات در اختیار دارند. ضمن این‌که شباهت‌ها و تفاوت‌های گروه‌های ناهمگون، در مجموعه بزرگی از داده‌ها از سوی در دست مطالعه و بررسی قرار دارد. در این مجموعه بزرگ از داده‌ها می‌توان بیشترین ارزش را برای هوش مصنوعی به دست آورد. چینی‌ها داده‌هایی درباره مردم چین در اختیار دارند. نفوذ بین‌المللی آنها و تعداد مشتریان جهانی آنها چندان قابل‌توجه نیست. شرکت‌های امریکایی مجموعه‌های بزرگی از داده‌های میلیاردها کاربر جهانی را در اختیار دارند. این یک نقطه قوت است.»

السا کانیا، همکار کمکی، برنامه فناوری و امنیت ملی، مرکز امنیت نوین امریکا (CNAS)

«همچنان که هوش مصنوعی، چهارمین انقلاب صنعتی را سرعت می‌بخشد، چین در پی آن است که با بهره‌گیری از هوش مصنوعی برای تقویت یکسان پویایی اقتصادی و توانمندی‌های نظامی خود، رهبری این انقلاب را در دست خود بگیرد. همچنان که این کشور اقتصاد دیجیتالی پرتحرکی را پایه‌گذاری می‌کند، کاربردهای تجاری هوش مصنوعی و کلان‌داده می‌تواند اقتصاد و جامعه چین را از بخش درمان گرفته تا ماشین‌های خودران متحول کند. بعد از مطرح شدن راهبرد یک کمربند، یک راه، تمرکز تازه‌ای روی جاده ابریشم دیجیتالی شکل گرفته است. چین با پیگیری طرح جاده ابریشم دیجیتالی درصدد است تا همزمان با توسعه همکاری‌های علمی بین‌المللی درزمینه هوش مصنوعی، از مزیت‌های همرسانی کلان‌داده و تقویت اتصال دیجیتالی بهره‌مند شود. چین به‌عنوان یکی از قدرت‌های هوش مصنوعی و به‌عنوان کشوری که یکی از نخستین پیشنهاددهنده‌های این فناوری بوده است، همچنین در نظر دارد که پیشگام شکل بخشیدن به استانداردها و سازوکارهای فنی حاکمیت جهانی هوش مصنوعی باشد تا احتمالاً از این رهگذر، منافع و برتری‌های خود را نیز تقویت کند.»

ادامه مطلب

به گزارش کارگروه فناوری اطلاعات سی اس اس، به نقل از digitaltrends؛ بارگزاری داده های مغز روی رایانه، همواره یکی از رویاهایی بوده که همه در مورد آن نظراتی داشته اند. یک استارتاپ جدید  توسط شرکت وای کامبینیتر(Y Combinator) – مرکز رشد وشتاب دهنده آمریکایی- قصد دارد این رویا را به واقعیت تبدیل کند. یکی از شروط انجام آن، این است که فرد باید ابتدا بمیرد تا بتوان اطلاعات را از مغز وی برداشت. به علاوه ضمانتی برای موفقیت آمیز بودن این نوآوری نیز وجود ندارد.

استارتاپ یاد شده در بالا که نکتام (Nectome) نام دارد، با استفاده از تحقیقات دانشگاه «MIT» برای حفاظت از جزئیات میکروسکوپی مغز انسان راه اندازی شده است. این تحقیقات شامل  فرآینده تثبیت «vitrifixation» یا گندزدایی تثبیت کننده «aldehyde-stabilized cryopreservation»  می شود. گروه اجرایی این پروژه به وسیله مایکل مکانا (Michael McCanna)  و رابرت مکلنتایر (Robert Mclntyer) هدایت می شود. موسسین نکتام برنده جایزه حفاظت از مغز در نگهداری کامل کانکتوم مغز یک خرگوش شدند. کارشناسان این مرکز، فناوری یاد شده را در ابعاد انسانی اولین بار روی یک زن نیز به کار برده اند.

افراد می توانند با عقد قرارداد با شرکت مذکور، مغز خود را پس از مرگ مومیایی کنند. در حال حاضر نکتام ۱۰ هزار دلار از مشتریان خود برای این اقدام دریافت کرده و اظهارداشته، تمام هزینه های دریافتی در صورت انصراف مشتر یان قابل استرداد است. 

از طرف دیگر این شرکت هیچ تعهدی برای ضمانت جاودانگی ارائه نمی دهد اما وب سایت آن اذعان داشت که بارگزاری مغر هدف نهایی است. گرچه هنوز مشخص نیست که شرکت تکتام به تنهایی این فعالیت را انجام خواهد داد یا به سازمان دیگری واگذار خواهد کرد.

تاکنون، نکتام کمک هایی از وای کامبینیتور و مؤسسه ملی سلامت روان امریکا به ارزش یک ملیون دلار  برای جاودانگی مغز انسان دریافت کرده است. آیا این میزان باعث می شود تا مردم عادی نیز به این ابتکار روی بیاورند؟ آیا با هر ۱۰ هزار دلار، این به یک تجارت تبدیل خواهد شد.
 

ادامه مطلب

به گزارش کارگروه فناوری اطلاعات سی اس اس، به نقل از finance nine؛ ایلان ماسک در همایش SXSW ایالات متحده با ابراز نگرانی اظهار داشت که عدم وجود قوانین سخت گیرانه برای هوش مصنوعی باعث بروز تغییرات غیر قابل تصوری در جهان خواهد شد.

این تاجر مشهور در این رابطه افزود:

عدم توجه به این موضوع سبب می شود تا بزرگترین بحران ممکن، پیش روی بشریت قرار گیرد. از این رو، لازم است یک نهاد اجرایی عمومی برای تایید و تامین امنیت فعالیت های این حوزه نظارت جدی داشته باشد. موضوع یاد شده بسیار حائز اهمیت قلمداد می شود و به همین دلیل است که خطر هوش مصنوعی بسیار بیشتر از نیروگاه های اتمی به حساب می آید.

ماسک که از هوش مصنوعی در شرکت اسپیس اکس و تسلا استفاده کرده است، باور دارد رشد فزاینده این فناوری به سرنگونی جامعه انسانی منجر می شود. وی معتقد است اگر جامعه انسانی به این تصمیم برسد که ایجاد هوش دیجیتالی پیشرفته، اقدام صحیح برای توسعه است باید بسیار محتاطانه در مسیر آن قدم برداشت.

مهندس آمریکایی مشهور برای بیان مثال، از هوش مصنوعی آزمایشگاه دیپ مایند (Deep Mind) گوگل به نام آلفاگو  (اولین رایانه هوش مصنوعی) برای غلبه بر قهرمان انسانی بازی «Go»  استفاده کرد. «Go» از بازی های تخته ای چینی است که از پیچیده ترین سرگرمی های دنیا به شمار می رود. در طول تنها  ۲۱ روز، آلفاگو به مهارتی در این بازی چینی رسید که  می توانست ۶۰ بازیگر حرفه ای را همزمان شکست دهد.

در آگوست سال گذشته، ماسک یکی از ۱۱۶ امضا کننده نامه ای بود که در آن از سازمان ملل درخواست کرد تا از سلاح خودمختار جلوگیری شود.

در بخشی از نامه، این چنین آمده است:

سلاح های خودکار می توانند انقلاب سوم جنگ را رقم بزنند. هرگاه  این سلاح ها آماده به کارگیری شوند، نبردی با ابعاد بسیار بزرگ رخ خواهد داد که سرعتی فراتر از درک انسان دارد. در صورتی که این تسلیحات در اختیار تروریست ها قرار گیرد، بسیاری از جوامع بی گناه را  تهدید می کنند.

ادامه مطلب

 

به گزارش کارگروه شبکه های اجتماعی سی اس اس؛ بخشی از فناوری با نوعی فساد روبرو شده است؛ اما در بحبوحه تمام نگرانی‌های ناشی از اخبار جعلی، دادوفریادهای برخاسته از طرح‌های روسیه برای انتشار اطلاعات غلط که انتخابات امریکا را از رونق انداخت، درخواست سیاستمداران از غول‌های فناوری برای استقرار وجدان اجتماعی، فهم پیچیده‌تری در حال شکل‌گیری است.

اخبار جعلی و اطلاعات دروغ فقط چند نشانه از آن چیزی است که دچار اشکال و فساد شده است. مشکلی که با غول‌های این حوزه وجود دارد، بسیار اساسی‌تر از این حرف‌ها است.

مشکل این است که این موتورهای الگوریتمی بسیار قدرتمند، همانند جعبه سیاه هستند؛ و در مرحله عملیاتی، هر کاربر مستقل فقط آن چیزی را می‌بیند که یک کاربر مستقل می‌تواند ببیند.

دروغ بزرگ شبکه‌های اجتماعی این ادعا بوده است که جهان را در معرض دید ما می‌گذارد؛ و فریب بعدی آنها این بود: محصولات فناوری آنها، ما را به هم نزدیک‌تر می‌کند.

در حقیقت، شبکه‌های اجتماعی یک لنز تلسکوپی نیست- آن‌طور که تلفن بود- بلکه یک منشور نظرشکن است که با جایگزین کردن یک حوزه عمومی مشترک و گفتمان همپوشانی پویای آن با دیواری از حباب‌های فیلتری که به‌طور فزاینده متمرکز می‌شود، انسجام اجتماعی را بر هم می‌زند.

شبکه‌های اجتماعی یک بافت همبند (پیوندی) نیست بلکه نوعی تفکیک طراحی‌شده است که با هر جفت از کره‌های چشم انسان همانند یک واحد گسسته رفتار می‌کند که قرار است از همتایان خود جدا شود.

خوب به این موضوع فکر کنید. به یک کابوس تریپوفوبیایی شبیه است. یا یک سراسرنمای وارونه است- هر کاربر در یک سلول منفرد زندانی شده است و کنترل‌کننده قادر است از برج شیشه‌ای خود بر آنها نظارت کند.

جای تعجب نیست که دروغ‌ها به این سرعت از طریق محصولات منتشر و تکثیر می‌شوند؛ به‌طوری‌که نه تنها نرخ انتقال اطلاعات با سرعت بسیار افزایش می‌یابد بلکه انسان‌ها را در آمیزه‌ای از تعصبات خود آنها گرفتار می‌کند.

ابتدا به خواسته‌ها و نیازهای آنها پاسخ مثبت می‌دهد، سپس دوقطبی ایجاد می‌کند و آنها را روبروی هم قرار می‌دهد و درنهایت، ما را از هم جدا می‌کند.

زمانی که وارد فیس‌بوک می‌شویم یا به‌دقت به نتایج شخصی‌شده در گوگل می‌نگریم، انگار که عینکی تیره‌وتار به چشم زده باشیم، هر یک جداگانه هدفونی سفارشی بر گوش می‌نهیم که دائماً یک فیلم سفارشی را پخش می‌کند – در سینمایی تاریک و تک‌صندلی بدون حتی یک پنجره یا در.

تا حالا احساس خفگی به شما دست داده است؟

فیلمی پخش می‌شود که موتور الگوریتمی فکر می‌کند شما آن را دوست دارید. به این خاطر که بازیگران مورد علاقه شما را شناسایی کرده است. می‌داند به چه ژانری علاقه دارید. کابوس‌هایی که شب‌ها دست از سرتان برنمی‌دارد. اولین چیزی که صبح‌ها به آن فکر می‌کنید.

تفکر سیاسی شما را می‌شناسد، دوستان شما را نیز همین‌طور و این‌که کجاها می‌روید. بی‌وقفه شما را زیر نظر دارد و این اطلاعات را به محصولی سفارشی، دائم‌التکرار و احساس‌برانگیز مختص خود شما تبدیل می‌کند.

دستورالعمل محرمانه آن، ترکیب بی‌نهایت علایق و تنفرات شخصی شماست که از اینترنت به دست آمده است، یعنی همان جایی که شما ناخواسته آنها را منتشر می‌کنید (حتی عادات آفلاین شما نیز از ماشین دروی آن در امان نیست- به کارگزاران و دلال‌های اطلاعات پول می‌دهد تا از این موارد نیز برایش خبر ببرند.)

هیچ‌کس دیگری هرگز موفق به تماشای این فیلم نخواهد شد. حتی از وجود چنین فیلمی هم خبردار نخواهد شد. هیچ آنونسی برای تبلیغ آن پخش نمی‌شود. چرا برای فیلمی که فقط برای شما ساخته شده است، زحمت تهیه بیلبورد به خود بدهند؟ درهرحال، محتوای سفارشی و شخصی‌شده تقریباً همان چیزی است که میخکوب شدن شما روی صندلی را تضمین می‌کند.

اگر بسترهای شبکه‌های اجتماعی، کارخانه تولید سوسیس بود، می‌توانستیم حداقل جلوی هر کامیون باری را هنگام خروج بگیریم تا درباره ترکیب ماده گوشتی رنگ داخل هر بسته کاوش کنیم- و ببینیم که آیا واقعاً به همان خوشمزگی که گفته می‌شود، هست یا خیر.

 مطمئناً مجبوریم این کار را هزاران بار انجام دهیم تا درباره محتوای هر کیسه، به اطلاعات معقول دست پیدا کنیم؛ اما این کار شدنی است.

افسوس که در بسترهای شبکه‌های اجتماعی، این‌گونه محصولات فیزیکی وجود ندارد و برای تحقیق و بررسی، هیچ ردپای فیزیکی در اختیار نداریم.

دود و آینه

درک فرآیندهای شکل‌دهنده اطلاعات در بسترهای شبکه‌های اجتماعی نیازمند دسترسی به جعبه سیاه الگوریتمی آنها است؛ اما این جعبه‌های سیاه، درون ساختمان‌های مرکزی بسترها محافظت می‌شوند و روی آنها برچسب‌های از این قبیل دیده می‌شود: «اختصاصی! غیرقابل بازدید! اطلاعات حساس تجاری!»

فقط مهندسان و مالکان می‌توانند به آنجا سرک بکشند؛ و حتی آنها هم لزوماً همیشه از تصمیماتی که این دستگاه‌ها و تجهیزات می‌گیرند سر در نمی‌آورند.

اما این عدم تقارن چقدر پایدار است؟ اگر ما به‌عنوان جامعه کلان- که این بسترها از نظر از اطلاعات، کره چشم، محتوا و درآمد به آن وابسته هستند؛ ما مدل کسب‌وکار آنها هستیم- نتوانیم ببینیم که چگونه با آنچه به شیوه قطره‌چکانی به تک‌تک ما می‌خورانند، از هم جدا می‌شویم، چگونه می‌توانیم درباره کاری که فناوری با تک‌تک ما انجام می‌دهد، قضاوت کنیم؟ و چگونه می‌توانیم تشخیص دهیم که این فناوری چگونه به جامعه نظم بخشیده و به آن شکل می‌دهد؟ چگونه می‌توان به سنجش تأثیر آن امیدوار بود؟ مگر مواقعی که آسیب‌های آنها را احساس کنیم. بدون دسترسی به اطلاعات منطقی چگونه می‌توان به‌درستی گفت که آیا وقت سپری شده در اینجا و آنجا یا در هر یک از این بسترهای تبلیغاتی که در راستای تحقق خواسته‌ها عمل می‌کنند، «زمانی بوده است که به‌درستی صرف شده است»؟

درباره قدرت جلب توجه که غول‌های فناوری روی ما دارند – مثلاً زمانی که ایستگاه قطار ناگزیر است علائم هشداردهنده‌ای نصب کند تا به والدین اخطار دهد که سر خود را از روی گوشی برداشته و به جای آن، مراقب کودکان خود باشند- چه می‌گوید؟

آیا نسیم احمقانه تازه‌ای در شهر وزیدن گرفته است؟ یا توجه ما را به ناحق دزدیده‌اند؟

زمانی که مدیران عرصه فناوری اعتراف می‌کنند که اصلاً علاقه‌ای ندارند که فرزندان خود آنها دوروبر محصولاتی بروند که به خورد دیگران می‌دهند، چه باید گفت؟ گویی آنها این‌طور فکر می‌کنند‌ که این محصولات در حکم گونه جدیدی از نیکوتین است.

پژوهشگران بیرونی، در تلاش برای شناسایی تأثیرات اجتماعی غول‌های فناوری، با تمام توان خود تلاش کرده‌اند که جریان افکار و تأثیر برخط را ترسیم و تجزیه‌وتحلیل کنند.

با وجود این، توییتر یکی از آن غول‌هایی است که با وسواس زیاد، از جایگاه دروازه‌بانی خود عملاً این تحقیقات را نادیده می‌گیرد و هر پژوهشی را که نتایج آن مطابق میلش نباشد، با این ادعا که تصویر ناقصی از حقیقت را ارائه می‌کند، مزخرف می‌خواند.

چرا؟ زیرا پژوهشگران بیرونی به تمام جریان‌های اطلاعاتی آن دسترسی ندارند. چرا؟ زیرا آنها نمی‌توانند ببینند که اطلاعات چگونه توسط الگوریتم‌های توییتر شکل می‌گیرد، یا هر کاربر توییتر چگونه کلید پنهان کردن محتوا را فشرده است (یا نفشرده است) که همچنین می‌تواند – به گفته توییتر- سوسیس را قالب‌بندی کرده و مشخص کند که چه کسی می‌تواند آن را مصرف کند.

چرا که نه؟ زیرا توییتر این دسترسی را به غریبه‌ها نمی‌دهد. متأسفیم، علامت هشدار را ندیده بودید؟

 و زمانی که سیاستمداران، شرکت را زیر فشار قرار می‌دهند تا تصویر کامل را ارائه دهد- بر مبنای داده‌هایی که فقط توییتر می‌تواند مشاهده کند- تنها چیزی که عایدشان می‌شود بخش‌های گزینش‌شده‌ای از اطلاعاتی است که در راستای منافع خود توییتر منتشر می‌شود.

(این بازی «طرح پرسش‌های آزاردهنده» / «مخفی کردن خال بی‌ریخت» ممکن است همین‌طور ادامه پیدا کند. با وجود این به نظر نمی‌رسد که در درازمدت، این بازی به لحاظ سیاسی چندان دوام بیاورد- درهرحال، بازی‌های سین‌جیم کردن دیگری ممکن است به‌طور ناگهانی به چرخه مد بازگردد.)
و زمانی که فیس‌بوک در حفظ استانداردهای فعلی خود ناکام مانده است، چگونه می‌توانیم به این شرکت برای ایجاد سامانه‌های قوی و دقیق مقابله با افشای اطلاعات، اعتماد کنیم؟

مارک زاکربرگ از ما می‌خواهد باور کنیم که او می‌تواند کار درست را انجام دهد. درعین‌حال، او از مدیران قدرتمند فناوری است که نگرانی‌ها درباره وجود اطلاعات دروغ و مخرب در بستر شرکت او را عمداً نادیده گرفت. او حتی هشدارها درباره این‌که اخبار جعلی می‌تواند دموکراسی را نیز تحت‌الشعاع قرار دهد، نادیده گرفت؛ هشدارهایی که از سوی خودی‌ها و مشاوران سیاسی آگاه و زیرک صادر شده بود.

جعبه‌های سیاه جهت‌دار

قبل از آن‌که اخبار جعلی به بحران جاری در کسب‌وکار فیس‌بوک بدل شود، خط استاندارد دفاعی زاکربرگ برای هرگونه محتوای مطرح شده، به انحراف کشاندن بحث بود- این ادعای معروف که «ما شرکت رسانه‌ای نیستیم؛ ما شرکت فناوری هستیم».

چه بسا حرف زاکربرگ درست باشد؛ زیرا احتمالاً شرکت‌های فناوری حقیقتاً به نوع جدیدی از مقررات سفارشی نیاز دارند. مقرراتی که منعکس‌کننده ماهیت بسیار هدفمند محصول شخصی‌شده ای باشد که کارخانه آنها در مقیاسی برابر با – مبتلایان به تریوپوفوبیا نگاه نکنند!- ۴ میلیارد کره چشم، در حال تغییر دادن آن است.

در سال‌های اخیر از قانون‌گذاران درخواست شده است تا به جعبه سیاه الگوریتمی دسترسی داشته باشند تا بتوانند بر موتورهایی که ما را تحت تأثیر قرار می‌دهد و ما (محصول) امکان مشاهده (و طبیعتاً نظارت) آن را نداریم، نظارت نمایند.

کاربرد فزاینده هوش مصنوعی، مسئله را جدی‌تر می‌کند و اگر تعصبات به‌طور خام وارد جعبه سیاهی شود که از امتیاز تجاری برخوردار است؛ خطر این تعصبات، مطابق با سرعت و مقیاس بسترهای فناوری پیش خواهد رفت.

آیا به نظر ما خودکارسازی اشکالات، درست و عادلانه است؟ دستکم تا زمانی که شکایت‌ها آن‌قدر برجسته و پررنگ شود که کسی در جایی به نحو مناسبی این شکایت را بشنود و بانگ اعتراض بلند کند؟

توجیه الگوریتمی نباید به این معنا باشد که برای معکوس کردن ناکامی فناورانه، توده عظیمی از انسان‌ها باید رنج بکشند. ما حتماً باید به دنبال فرآیندهای مناسب و توجیه منطقی باشیم. هزینه آن هر چه می‌خواهد، باشد.

و اگر هر بار که از بسترهای قدرتمند درخواست می‌شود که به پرسش‌هایی پاسخ دهند که فراتر از منافع تجاری آنها است – پاسخ‌هایی که فقط در اختیار خود آنهاست- این بسترها از پاسخگویی طفره رفته و رو به حقیقت سازی می‌آورند، آنگاه درخواست از آنها برای باز کردن جعبه سیاه خود، مطمئناً به جاروجنجال تبدیل خواهد شد چراکه از حمایت کامل جامعه برخوردارند.

قانون‌گذاران هم‌اکنون نسبت به عبارت توجیه الگوریتمی، گوش‌به‌زنگ هستند. این اصطلاح ورد زبان آنها شده است. خطرات گوشزد می‌شود. خطرات فعلی سبک و سنگین می‌شود. جعبه‌های سیاه الگوریتمی، درخشندگی عمومی خود را از دست می‌دهند.

اکنون کسی درباره تأثیر این بسترها بر گفتمان عمومی و شکل بخشیدن به آن شک ندارد؛ اما مسلماً در سال‌های اخیر، همچنان که الگوریتم‌ها به ترول‌ها و تحریک‌کنندگانی که نقش‌آفرینی بهتری در زمین بازی آنها داشتند، پاداش داده‌اند، عرصه عمومی را نیز ناهنجارتر، عصبانی‌تر و مستعد خشونت ساخته و از بازدهی آن کاسته‌اند.

بنابراین تنها کاری که می‌ماند این است که افراد کافی – کاربران کافی- نقاط را به هم وصل کرده و بفهمند که چه چیز آنها را در فضای مجازی این‌گونه ناراحت و نگران کرده است – و این محصولات، مانند قبلی‌ها بر سر تاک، پژمرده خواهد شد.

این مسئله، راه‌حل مهندسی هم ندارد. حتی اگر هوش مصنوعی مولد در زمینه تولید محتوا به چنان پیشرفتی برسد که بتواند بخش بزرگی از زحمات بشر را جایگزین کند، هرگز کره‌های چشم زیستی لازم را برای چشمک زدن به دلارهای تبلیغاتی که حیات غول‌های فناوری به آن وابسته است، نخواهد داشت. (عبارت «بستر محتوای تولید شده توسط کاربر» باید حقیقتاً با عبارت «و مصرف شده توسط کاربر» همنشین شود.)

نخست‌وزیر انگلیس، ترزا مه به‌تازگی در سخنرانی خود در مجمع جهانی اقتصاد داووس به شدت از ناکامی بسترهای شبکه‌های اجتماعی در عملیاتی کردن وجدان اجتماعی انتقاد کرد.

ترزا می، پس از حمله کردن به لایک‌های فیس‌بوک، توییتر و گوگل – چراکه به گفته او، سوءاستفاده از کودکان، بردگی نوین و انتشار محتوای افراطی و تروریستی را تسهیل می‌کند- به نظرسنجی موسسه ادلمن اشاره کرد که حاکی از افول جهانی اعتماد در شبکه‌های اجتماعی (و جهش همزمان اعتماد به روزنامه‌نگاری) است.

معنای نهفته در سخنان ترزا می، آشکار بود: در رابطه با غول‌های فناوری، رهبران جهان اکنون هم مشتاقند و هم قادرند که چاقوهای خود را تیز کنند. ترزا می تنها سخنرانی نبود که در مجمع داووس حسابی از شبکه‌های اجتماعی انتقاد کرد.

جورج سوروس، میلیاردر امریکایی اظهار داشت: «فیس‌بوک و گوگل به قدرت‌های انحصاری قوی‌تری بدل شده‌اند و مانعی بر سر راه نوآوری محسوب می‌شوند. این قدرت‌ها مشکلات مختلفی پدید آورده‌اند که کم‌کم داریم از آنها آگاه می‌شویم.» سوروس خواهان اقدام قانونی است تا تسلط بسترها بر ما از بین برود.

و درحالی‌که سیاستمداران (و روزنامه‌نگاران- و به‌احتمال‌زیاد خود سوروس) معمولاً به شدت منفور هستند، شرکت‌های فناوری به‌احتمال‌قوی این‌گونه نیستند. این شرکت‌ها در هاله‌ای قرار دارند که سال‌ها با کلمه «نوآوری» عجین بوده است. «پس زدن جریان اصلی» در فرهنگ واژگان آنها وجود ندارد. درست مثل عبارت «مسئولیت اجتماعی» که تا همین اواخر هم در واژگان آنها دیده نمی‌شد.

برای فهمیدن این‌که شاهزاده‌های دره سیلیکون تا چه اندازه در برخورد با خشم پرسروصدای عمومی، ناآماده هستند، فقط کافی است به چین‌های پیشانی زاکربرگ نگاه کنید که در اثر نگرانی پدید آمده است.

حدس زدن بازی

ابهام و پیچیدگی بسترهای بزرگ فناوری یک اثر زیان‌آور و غیرانسانی دیگر هم دارد- این تأثیر علاوه بر کاربران داده‌کاوی، برای تولیدکنندگان محتوا نیز قابل تصور است.

با وجود این، بستری مانند یوتیوب که برای استمرار جریان محتوا در صفحه‌های نمایش متعدد که بازدیدهای آن به میلیون‌ها بار می‌رسد (و میلیون‌ها دلار روانه صندوق گوگل می‌کند)، به ارتش داوطلبی از تولیدکنندگان نیاز دارد، در عمل، پرده‌ای مبهم بین خود و خالقان خود کشیده است.

یوتیوب یک مجموعه سیاست محتوایی دارد که می‌گوید بارگذاری کنندگان محتوا در این بستر باید از آنها تبعیت کنند؛ اما گوگل این سیاست‌ها را به نحو یکپارچه‌ای به کار نگرفته است؛ و یک رسوایی رسانه‌ای یا تحریم یک آگهی‌دهنده می‌تواند اقدامات ناگهانی در پی داشته باشد به‌طوری‌که خالقان به تقلا بیفتند که نکند کسی آنها را از صحنه اخراج کند.

امی داویسون (Aimee Davison) اظهار داشت: «اکثر مشکلات من با یوتیوب ناشی از رتبه دهی خودکار، پرچم‌های ناشناس (که مورد سوءاستفاده قرارگرفته‌اند) و کمک ناشناس و مبهم از پشتیبانی ایمیلی ناشناس است که قدرت اصلاحی اندکی دارد. بهبود رابطه با کاربران در یوتیوب به تعامل و مذاکره مستقیم انسانی و به اطلاع‌رسانی صریح دستورالعمل یکپارچه نیاز دارد.»

داویسون اضافه کرد: «یوتیوب باید محتوای خود را به نحو مناسبی بدون آن‌که سانسور هنری بیش از حد اعمال کند، رتبه‌بندی کند- و باید مدیریت حساب‌های کاربری ما را نیز به انسان‌ها بسپارند.»

یوتیوب حتی برای مدیریت برجسته‌ترین خالقان محتوای خود مانند «ستارگان یوتیوب/YouTube stars» نیز گام مثبتی برنداشته است.

اما زمانی که سازنده star در یوتیوب، لوگان پل (Logan Paul) – از شرکای اصلی سابق بستر تبلیغاتی گوگل – ویدئویی از خود را بارگذاری می‌کند که در آن، کنار جسد فردی که خودکشی کرده ایستاده و دلقک‌بازی درمی‌آورد؛ چه کسی را باید سرزنش کرد؟

پل باید به وجدان خود رجوع کند؛ اما سرزنش همچنین باید تک‌تک کسانی را نشانه بگیرد که به‌طور الگوریتمی در این بستر در حال مدیریت شدن (بخوانید آلت دست) هستند تا محتوایی را تولید کنند که به معنای واقعی کلمه گوگل را ثروتمند می‌کند زیرا مردم طبق نظام پاداش گوگل است که هدایت می‌شوند.

در قضیه پل، کارکنان یوتیوب نیز به‌طور دستی ویدئوی ارسالی او را بررسی و تأیید کردند؛ بنابراین حتی زمانی که یوتیوب ادعا می‌کند که ناظران انسانی برای بررسی محتوا پیش‌بینی کرده است، ظاهراً این ناظران انسانی زمان و ابزار کافی برای انجام کار در اختیار ندارند. گوگل اعلام کرده است که تعداد کارکنان نظارت و اصلاح را در سال جاری به ۱۰ هزار نفر افزایش خواهد داد.

بااین‌همه، این رقم در مقابل میزان محتوایی که در یوتیوب بارگذاری می‌شود، اصلاً به چشم نمی‌آید (طبق آمار موسسه استاتیستا، در جولای ۲۰۱۵، هر دقیقه ۴۰۰ ساعت ویدئو در یوتیوب بارگذاری شد؛ این رقم تا حالا به‌راحتی به ۶۰۰ یا ۷۰۰ ساعت در دقیقه رسیده است).

این اندازه بستر محتوایی بارگذاری رایگان یوتیوب، اداره منطقی آن را عملاً ناممکن می‌سازد. و زمانی که اندازه عظیم بستر، ردیابی فراگیر و فناوری سفارشی‌شده هدف‌گیری، قدرت اثرگذاری بر جامعه و شکل‌دهی آن را در سطح کلان ممکن می‌سازد، ابعاد مشکل گسترده‌تر می‌شود. طبق اعلام خود یوتیوب، ۱ میلیارد کاربر این شبکه، یک‌سوم کل اینترنت را به خود اختصاص داده است.

نگاهی به بخش مدیریت الگوریتمی تنظیمات عدم‌مداخله (بخوانید هزینه پایین) گوگل نشان می‌دهد که برخی تصمیمات این ابزارها، اگر بخواهیم محترمانه بگوییم، مورد تردید است. درواقع، الگوریتم‌های یوتیوب طبق اعلام کارکنان خود این شرکت، گرایش‌های افراط‌گرایانه دارد.

یوتیوب همچنین با این اتهام روبروست که اساساً افراط‌گرایی را در فضای مجازی خودکارسازی می‌کند- از طریق هل دادن بازدیدکنندگان به سمت بازدیدهای افراطی و نفرت‌آمیز. کافی است روی ویدئویی درباره یک اندیشمند جناح راستی مردم‌گرا – از طریق پیشنهاد الگوریتمی- کلیک کنید تا از گروه نفرت پراکنی نئونازی‌ها سر درآورید.

و آیا شرکت یوتیوب برای اصلاح این مشکل افراطی هوش مصنوعی تدبیری اندیشیده است؟ خیر؛ بلکه هوش‌های مصنوعی بیشتری هم در راه است…

و بسترهای دیگری هم در این شرکت هم شناسایی شده است که تحت هوش مصنوعی اخبار جعلی منتشر می‌کند، نفرت پراکنی را تشدید می‌کند و اقدامات ضداجتماعی را تحریک می‌کند.

و سامانه‌های مدیریت آن‌که تحت هوش مصنوعی قرار دارد، نادان‌تر از آن است که موقعیت را تشخیص دهد و مانند انسان، ظرایف را تشخیص دهد. (یا دستکم زمانی که وقت کافی به آنها برای تفکر داده شده است.)

خود زاکربرگ حدود یک سال پیش این‌طور نوشت که بحرانی که شرکت او با آن روبروست، رفته‌رفته واضح‌تر می‌شود: «ذکر این نکته لازم است که درک متن، تصویر و ویدئو مستلزم پیشرفت‌های بزرگ در حوزه هوش مصنوعی است تا بتوان قضاوت کرد که آیا این مطالب حاوی سخنان نفرت‌انگیز، خشونت تصویری، محتوای مستهجن و از این قبیل هست یا خیر. با نرخ فعلی پژوهش‌ها، امیدواریم که برخی از این موارد را در سال ۲۰۱۷ حل‌وفصل کنیم اما حل کردن برخی از آنها تا سال‌های متمادی امکان‌پذیر نیست.»

زمانی که مدیر فناوری از اصطلاح «سال‌های متمادی» استفاده می‌کند بدین معناست که «عملاً هرگز موفق به انجام این کار نخواهیم شد».

و اگر به مشکل بسیار سخت و ویرایشی مدیریت و اصلاح محتوا اشاره کنید، شناسایی تروریسم عملاً چالش نسبتاً دقیقی است.

درک طنز- یا حتی تشخیص این‌که یک محتوای خاص اصلاً ارزش ذاتی دارد یا کاملاً بدردنخور است؟ صریح بخواهم بگویم، اصلاً فکر نمی‌کنم هیچ رباتی بتواند این کار را انجام دهد.

مخصوصاً زمانی که مردم بر سر شرکت‌های فناوری فریاد می‌زنند که انسانیت بیشتری از خود نشان دهند؛ اما این شرکت‌ها همچنان در پی آن هستند که هوش مصنوعی بیشتری را به‌زور به ما بخورانند.

 

ادامه مطلب

به گزارش کار گروه امنیت سی اس اس به نقل از آکسیوس؛ شرکت امنیت سایبری سیمنتک «Symantec» طی گزارشی اعلام کرد که یک گروه هکری با نام مستعار «Chafer» تمرکز خود را روی صنایع وابسته به حمل و نقل هوایی گذاشته است. کارشناسان مدعی شدند گروه مذکور متعلق به ایران است و صنایع هواپیمایی را نشانه گرفته است.

این حملات سایبری که از پیچیدگی بالایی برخوردار هستند، توسط گروه هکری «چَفِر» مدیریت می شوند و این گروه وابسته به دولت ایران است.

مدیر فنی شرکت سیمنتک «Vikram Thakur» گفت: « فعالت های گروه هکری مذکور به سرعت روبه افزایش است و در سال های آینده با حملات شدیدتری از سوی این گروه هکری روبه رو خواهیم شد. »

چَفِر اولین بار توسط شرکت سیمنتک در سال ۲۰۱۵ شناسایی شد که فعالیت این گروه به سال ۲۰۱۴ بازمیگردد. این گروه هکری در اوایل فعالیت خود، تمرکز را در درون مرز های ایران گذاشته بود؛ اما از سال ۲۰۱۷ کانون توجهات خود را جاسوسی از اسراییل، اردون، عربستان، ترکیه و امارات قرار داد.

افزایش فعالیت های این گروه هکری و یچیدگی حملات صورت گرفته توسط آنها، نشانگر این واقعیت است که گروه مذکور در کار خود موفق بوده است.

ادامه مطلب

به گزارش کارگروه بین الملل سی اس اس؛ در حدود همان زمان، سانچز و تیم وی برای آموزش تکنیک های تدریس برای نظارت داخلی وارد امارات شدند. به عنوان رئیس کمپانی اطلاعاتی CAGN Global Ltd.، مستقر در بالتیمور، سانچز یک تیم از افسران پیشین سازمان انتظامی، بازرسان مقامات اطلاعاتی غربی و سربازان پیشین را برای آموزش اماراتی‌ها در مورد نحوه جاسوسی گردهم آورد.

برنامه آموزشی، که با یک مربی ساده با رهبری امارات آغاز شد، سریعتر از آن چیزی که افراد تصور می‌کردند پیشرفت کرد. آنها به به شدت به سانچز متکی بودند. این وابستگی تا حدی بود که می خواستند او را به ایجاد تمام سازمان های اصلی اطلاعاتی خود وادار کنند.

این دوره ها، با الگوبرداری از برخی مدل های آموزشی سیا، به بخش های مختلف تقسیم می شوند. اجزای این دوره از خط هوشمند پایه که شامل اردوگاه آموزشی به همراه با گزارش نویسی، جمع آوری اطلاعات و یادداشت برداری، برنامه اطلاعات خارجی، یک دوره شبه نظامی، و یک دوره سازمان انتظامی و پلیس فدرال تشکیل می‌شود.

برنامه آموزشی شامل «دویدون خرگوشی» می‌شود که افسران را در یک ماموریت نظارت قرار می‌دهد.

سربازان آموزش دیده اند تا توجه معلم دیگری را که سعی در فرار از آنها دارند، جلب نکنند. آنها همچنین «هنر مشاهده کردن» و نحوه تعیین اهداف بالقوه را آموزش می بینند.

دوره های نظارت بیرونی تقریبا مرجع آموزش دقیق سیا است. یکی از کارکنان سابق شرکت سانچز گفت:

این دقیقا همان چیزی است که آنها در ایالات متحده آموزش می دهند؛ همان مواد آموزش است.

براساس یک منبع دیگر، استفاده مربیان از مواد آموزش مشابه پس از برانگیخته شدن خشم سازمان سیا بود که در نهایت سانچز منافع زیادی از آن برد.

ادامه مطلب

به گزارش کارگروه فناوری اطلاعات سایبربات، به نقل از «powercompare»؛ با افزایش قیمت بیت‌کوین در سال ۲۰۱۷، بحث‌های بسیاری پیرامون حباب بودن یا نبودن ارزش آن مطرح شد؛ اما شاید یکی از جالب‌توجه‌ترین موضوعات پیرامون این ارز دیجیتالی انرژی الکتریکی موردنیاز برای استخراج آن است.

با توجه به «شاخص مصرف انرژی بیت‌کوین دیجیکانمیست »، این عدد در تاریخ ۲۰ نوامبر ۲۰۱۷، به ۲۰٫۰۵ تراوات و تا ۲۶ فوریه ۲۰۱۸، ۵۲ تراوات ساعت بوده است. بر همین اساس مصرف برق استخراج بیت‌کوین از مصرف انرژی بیش از ۱۵۹ بیشتر است.

اگر ماینرهای بیت‌کوین یک کشور در نظر گرفته شوند، رتبه‌ی ۶۱ در زمینه‌ی مصرف برق به دست می‌آورند.

ادامه مطلب