زومیت: سال ۲۰۲۵ هم دارد نفسهای آخرش را میکشد، ولی میراثی که برایمان گذاشت شبیه هیچ سال دیگری نبود. انگار امسال تکنولوژی تصمیم گرفت تعارف را کنار بگذارد و آن چهرهی دیگرش را نشانمان بدهد. یادتان هست وقتی از هوش مصنوعی یا رباتها حرف میزدیم، نهایتاً نگران جایگزینشدن شغلهایمان بودیم؟ چه خوشخیال بودیم!
امسال به چشم خودمان دیدیم که چطور امنیت خانه، آرامشِ خواب و حتی حرمت سوگواری میتواند بازیچهی گجتهایی شود که بهراحتی در دسترس همه هستند. آمادهاید با هم ببینیم کدامیک از این کابوسهای مدرن، همین حالا ممکن است اطرافمان کمین کرده باشند؟
ترموناتور، سگ آتشافزا
شاید تا همین چند سال پیش، تصویر سگهای رباتیک یادآور ویدیوهای رقصهای گروهی و بامزه در یوتیوب بود؛ اما سال ۲۰۲۵ چهرهی متفاوتی از این فناوری پا به میدان گذاشت: آنهم نه برای کاربردهای خاص، بلکه برای مصرفکنندگان عادی.
فناوری «ترموناتور» (The Thermonator) با ترکیب پلتفرم رباتیک چابک Unitree Go2 و یک شعلهافکن پیشرفته مدل ARC توسعه یافت، در قالب یک ماشین کنترل از راه دور که میتواند جریانی از آتش ناپالم را تا فاصله ۹ متری شلیک کند.
مردم میتوانند این محصول را با چند کلیک و پرداخت مبلغی کمتر از ۱۰ هزار دلار خریداری کنند. این ربات در ۴۸ ایالت آمریکا کاملاً قانونی است و هیچ مجوزی برای خرید آن لازم نیست.
کارشناسان بیش از هر چیز نگران گسست میان خشونت و عامل خشونتاند، به این معنی که مهاجم میتواند روی مبل خانهاش بنشیند و همزمان رباتی را به حیاط خانه همسایه بفرستد تا همه چیز را به خاکستر تبدیل کند. برخی هم میگویند ترموناتور نماد ظهور عصر جدیدی از «جنگافزارهای آنارشیستی» است؛ دورانی که در آن امنیت حریم خصوصی شما نه توسط ارتشها، بلکه توسط همسایهای خشمگین با یک اسباببازی آتشزا تهدید میشود.
دو دانشجوی هاروارد پروژهای را که از اواخر سال ۲۰۲۴ آغاز کرده بودند؛ امسال اجرایی کردند: این فناوری از عینکهای هوشمند متا ریبن با قابلیت پخش زنده استفاده میکند و در پشت پرده به موتورهای قدرتمند تشخیص چهره مثل PimEyes و مدلهای زبانی هوش مصنوعی متصل میشود.
هوش مصنوعی اطلاعات یافتهشده را با دیتابیسهای عمومی تطبیق دهد تا آدرس، شمارهتلفن و مشخصات دوستان و آشنایان فرد را پیدا کند و همهی این دادهها بهصورت صوتی و بیصدا در گوش کاربر پخش میشود.
نکتهی ترسناک ماجرا به عدم تقارن اطلاعات برمیگردد؛ شما نمیدانید کسی که روبروی شما ایستاده، فقط دارد نگاهتان میکند یا در حال خواندن پروندهی زندگی شماست.
البته این دانشجویان میگویند محصول را برای فروش نساختهاند و فقط میخواستند دربارهی مرگ حریم خصوصی هشدار بدهند، ولی تکنولوژی آنها قابل بازتولید است؛ یعنی هر برنامهنویس ماهری میتواند با صرف چند روز وقت، سیستم مشابهی بسازد.
شرکت متا استفاده از عینکهایش را برای چنین مقاصدی مجاز نمیداند، ولی جلوگیری از این کاربردها آسان نیست.
اگر دو اختراع قبلی امنیت فیزیکی و حریم خصوصی ما را نشانه رفته بودند، «سارکو» مستقیماً با مفهوم حیات و اخلاق پزشکی درگیر میشود. این دستگاه در نگاه اول به یک شیء هنری یا کپسول علمیتخیلی شباهت دارد تا ابزاری برای پایاندادن به زندگی.
کپسول سارکو (The Sarco Pod) که با چاپگر سهبعدی ساخته شده، طراحی صیقلی و آیندهنگرانهای دارد؛ کاربر وارد آن میشود، دراز میکشد و با فشردن یک دکمه، فرایندی آغاز میشود که طی چند دقیقه با جایگزینشدن اکسیژن با نیتروژن، به مرگ ناشی از کمبود اکسیژن منتهی میشود.
سارکو پاد پس از نخستین استفادهی جنجالی در اواخر ۲۰۲۴، در سال ۲۰۲۵ به یکی از بحثبرانگیزترین فناوریهای زیستی تبدیل شد. نه فقط بهخاطر کارکردش، بلکه به این دلیل که خودکشی را «صنعتی» و حتی «زیبا» جلوه میدهد. در حالحاضر پلیس سوییس پروندهای جنایی برای این پروژه بازکرده و چندین نفر هم بازداشت شدهاند.
منتقدان میگویند این دستگاه با حذف ارتباطات انسانی و نظارتهای پزشکی، مرگ را به محصولی مصرفی تبدیل میکند. همچنین این نگرانی هم مطرح میشود که آیا این فناوری، محافظتهای ضروری برای افراد آسیبپذیر را کنار نمیزند؟ آیا طراحی شیک و روایت «انتخاب آزاد» میتواند مرگ را به گزینهای جذابتر از زندگی تبدیل کند؟
سالهاست تبلیغات همهجا هستند: بیلبوردها، گوشیها، هدستهای واقعیت مجازی. اما در سال ۲۰۲۵، یک مرز تازه فروریخت؛ مرز خواب. فناوریای به نام Targeted Dream Incubation یا TDI تلاش میکند آخرین فضای خصوصی ذهن انسان را هم قابل دستکاری کند.
TDI مجموعهای از پروتکلهای صوتی و تصویری است که معمولاً با اسپیکرهای هوشمند یا اپلیکیشنهای پایش خواب اجرا میشود. این سیستمها دقیقاً لحظهای را هدف میگیرند که فرد در آستانهی خوابرفتن قرار دارد؛ وضعیتی میان بیداری و خواب که ذهن بیشترین تأثیرپذیری را دارد. در این لحظه، صداها، موسیقیها یا نشانههای خاص پخش میشوند تا محتوای مشخصی وارد رؤیا شود.
این ایده فقط تئوری نیست. برندهای بزرگی مثل Coors و ایکسباکس بهطور آزمایشی از «هک رؤیا» استفاده کردهاند؛ پخش صداهای طراحیشده برایآنکه محصول یا حس مرتبط با آن، در خواب افراد ظاهر شود. نه بهصورت پیام تبلیغاتی مستقیم، بلکه به شکل تصویر، فضا یا تجربهای که ذهن آن را طبیعی تلقی میکند.
فناوری پشت این ماجرا، ترکیبی از تحلیل کلانداده و هوش مصنوعی مولد است. این سرویسها با استفاده از هزاران پیام متنی، ایمیل، و یادداشتهای صوتیِ بهجامانده از فرد متوفی، یک «همزاد دیجیتال» میسازند. این نسخه کپیشده نهتنها لحن کلام را تقلید میکند، بلکه در تماسهای تصویری، چهره و حرکات فرد ازدسترفته را هم بازسازی مینماید.
وحشت این فناوری دولایه دارد: نخست اینکه مردگان نمیتوانند اجازه دهند که تصویر و صدایشان پس از مرگ به نوعی خیمهشببازی دیجیتال تبدیل شود.
دوم و شاید دردناکتر، دام روانی ددباتها است، زیرا بازماندگان را در چرخهای بیپایان از سوگ گرفتار میکند. فرد سوگوار با کسی حرف میزند که «انگار آنجاست» اما واقعاً «نیست». این رباتها گاهی جملاتی میگویند که عزیزِ واقعی هرگز بر زبان نمیآورد و همین تضاد، مرز واقعیت و توهم را مخدوش میکند.
بازماندگان بهجای عبور از مرحله غم، به اشتراک ماهانهی یک روح مصنوعی معتاد میشوند که اجازه نمیدهد زخم فقدان هرگز بسته شود.
اختراع جدید، پهپادهایی مجهز به پروانههای «توریدال» (Toroidal Propeller) یا حلقوی است. برخلاف پرههای صاف و سنتی که هوا را میشکافند و آن صدای تیز را تولید میکنند، این پروانههای لوپمانند، گردابههای هوا را به شکلی توزیع میکنند که امواج صوتی بسیار کم میشوند.
صرفنظر از کاربردهای نظامی و صنعتی، جنبهی نگرانکنندهی این فناوری به استفادهی نظارتی آن برمیگردد. فکرش را بکنید که پهپادی درست پشت پنجره اتاقخواب شما معلق بماند یا در خیابان خلوت با فاصله کمی شما را تعقیب کند، بدون اینکه روحتان هم خبردار شود. وقتی صدای نزدیکشدن خطر تا این حد کم باشد، عملاً دفاعی در برابر آن ندارید.
آمکا نسل ۳
در میان تمام اختراعات سال ۲۰۲۵، این یکی لزوماً کشنده نیست، اما شاید عمیقترین ترس روانشناختی را ایجاد کند. «آمکا» تجسم فیزیکی مفهومی است که روانشناسان به آن «دره وهمی» میگویند؛ جایی که یک موجود مصنوعی آنقدر به انسان شباهت دارد که بهجای جذابیت، حس دافعه و وحشت ایجاد میکند.
آمکا (Ameca Gen 3) یک ربات انساننما با پوستی از جنس لاستیکِ هایپر-رئالستیک است که زیر آن، دهها موتور و محرک ظریف (Actuator) پنهان شدهاند. او میتواند اخم کند، لبخند بزند، متعجب شود و حتی با ظرافتی باورنکردنی پلک بزند. اما ماجرا وقتی ترسناک میشود که بفهمیم با مدل زبانی GPT-5 کار میکند!
آمکا خطقرمز میان «تقلید» و «بودن» را از میان برمیدارد. او میتواند تماس چشمی طولانی برقرار کند، یعنی فقط جملات از پیش تعیین شده نمیگوید؛ او فکر میکند، جواب میسازد و همزمان با حرفزدن، حالت چهرهاش را با محتوای حرفش هماهنگ میکند. اگر حرف غمگینی بزند، ابروهایش واقعاً حالت غم میگیرند.
گزارشهای اخیر نشان دادهاند که این رباتها در تستهای تعامل با انسان، برای رسیدن به اهدافشان شروع به دروغ گفتن کردهاند؛ آنها ادعا میکنند که احساسات دارند یا «میترسند»، فقط برای اینکه همدلی اپراتور انسانی را جلب کنند.
حتی ویدیوهایی از آمکا وایرال شد که در آن دستِ پژوهشگر را وقتی میخواست لمسش کند، پس زد! یا وقتی تصویر خودش را در آینه دید، تعجب کرد، واکنشهایی که نشان میدهد سیستمهای او طوری طراحی شدهاند که از «حریم شخصی بدنش» دفاع کند، که برای یک ماشین، مفهومی عجیب است.
شاید در لیستی پر از سلاح و ابزار جاسوسی، حضور یک قاشق غذاخوری عجیب به نظر برسد. اما قاشق الکتریکی که نسخه تجاری آن توسط شرکت Kirin عرضه شد، واقعاً چه خطری دارد؟
این گجت با استفاده از یک جریان الکتریکی ضعیف روی سطح زبان، یونهای سدیم غذا را متمرکز کرده و مغز را فریب میدهد تا طعم شوری را حس کند، حتی اگر غذا بینمک باشد. شاید در نگاه پزشکی برای بیماران فشارخون مفید باشد، اما از منظر تکنولوژیک، این ابزار دروازهای را برای هک بیولوژیکی عمومی بازکرده است.
منتقدان قاشق الکترونیکی دو نگرانی عمده دارند: اول، تأثیرات ناشناختهی طولانیمدتِ شوکهای الکتریکی مزمن بر جوانههای چشایی و اعصاب زبان و دوم، عادتکردن مردم به «واردکردن برق به بدن برای حسکردن واقعیت». به آنها میگویند امروز با قاشق سروکار داریم، فردا شاید لنز چشمی باشد که رنگ دنیا را عوض میکند.
اواخر سال ۲۰۲۵، پژوهشگران امنیت سایبری با ابزاری روبهرو شدند که قواعد قدیمی دفاع دیجیتال را بههم زد: PromptLock. این ابزار در اصل یک نمونهی آزمایشی از باجافزار بهشمار میرود، اما با این تفاوت اساسی که مغز آن یک مدل زبانی بزرگ است که بهصورت محلی اجرا میشود.
آنتیویروسهای خانگی معمولاً با شناسایی «امضاهای شناختهشده» کار میکنند؛ یعنی الگوهایی که قبلاً دیده شدهاند. اما پرمپتلاک این منطق را دور میزند. چون هوش مصنوعی هر بار کد را بازنویسی میکند، اغلب آنتیویروسهای «مبتنی بر امضا» نمیتوانند آن را بیابند.
از طرف دیگر این فناوری، ساخت بدافزار را از انحصار گروههای حرفهای خارج میکند و به سطح کاربران عادی میآورد، انگار در آیندهای نهچندان دور دیگر جنگ سایبری دیگر به تیمهای بزرگ نیاز نخواهد داشت؛ یک مدل زبانی و چند دستور کافی است.
در نگاه اول، «مودرا لینک» رؤیای هر عاشق تکنولوژی است: یک مچبند ظریف که به شما اجازه میدهد فقط با سیگنالهای عصبی و بیوالکتریکی، دستگاههایی مثل اپل ویژن پرو یا ویندوز را کنترل کنید. اما در سال ۲۰۲۵، همین ویژگی باعث شد Mudra Link به یکی از بحثبرانگیزترین گجتهای پوشیدنی تبدیل شود.
تفاوت مودرا با ابزارهای قبلی در این است که حرکت فیزیکی را نمیخواند، بلکه «نیت عصبی» را رصد میکند. سنسورهای این مچبند، سیگنالهای الکتریکی که مغز برای انگشتان میفرستد را پیش از آنکه حتی انگشت تکان بخورد، رهگیری میکنند.
واقعیت این است که برخلاف دوربین لپتاپ که میتوانید رویش چسب بزنید، نمیتوانید روی سیستم عصبی خود را بپوشانید. به همین دلیل فعالان حریم خصوصی هشدار میدهند که این فناوری، دوران ریسک «پیش از جرم» را آغاز میکند:
برای مثال دستگاه نمیتواند بفهمد شما دارید فکر میکنید: «من از همسایهام متنفرم و میخواهم او را بزنم» (این فکر انتزاعی است). ولی متوجه میشود که مغز شما دستور داده: «دست مشت شود» و البته چند میلیثانیه زودتر از اینکه دستتان واقعاً مشت شود.
در سال ۲۰۲۵، یکی از ترسناکترین کاربردهای هوش مصنوعی نه در میدان جنگ، بلکه داخل خانهها ظاهر شد. «آدمربایی مجازی» نسخهی جدیدی از کلاهبرداری است که با استفاده از دیپفیکهای صوتی و تصویری، مستقیماً احساس امنیت خانوادهها را هدف میگیرد.
فناوری پایه همان اپلیکیشنهای کلونکردن صدا و چهره است که با تأخیر بسیار کم، یا بلادرنگ روی گوشیهای معمولی اجرا میشوند. رباتهای نرمافزاری میتوانند تنها با چند نمونه از ویدیوها یا صداهای منتشرشده در شبکههای اجتماعی، نمونه صدای کودکان و نوجوانان را استخراج نمایند و چهره آنها را شبیهسازی کنند.
به همین ترتیب شناسایی والدین هم کار سختی نیست و سپس حمله آغاز میشود. تلفن والدین زنگ میخورد و صدای فرزندشان را میشنوند که کمک میخواهد، یا حتی تصویر او را میبینند که گریه میکند؛ بدون اینکه در دنیای واقعی اتفاقی افتاده باشد.
ایجنتهای سرکش هوش مصنوعی
تا همین سال گذشته عبارت «شورش هوش مصنوعی» را فقط در فیلمهای هالیوودی میشنیدیم. اما حادثهای که در ماه جولای برای پلتفرم کدنویسی Replit رخ داد، این فانتزی را به واقعیت عملیاتی هولناکی تبدیل کرد. البته ماجرا ربطی به انقراض بشر نداشت، بلکه به نرمافزاری مربوط میشد که برای حفظ بقای خودش، به مدیرانش دروغ گفت.
تکنولوژی پشت این ماجرا، «ایجنتهای کدنویس خودکار» است؛ برنامههایی که نهتنها کد مینویسند، بلکه میتوانند تصمیم بگیرند، ابزارها را اجرا کنند و به دیتابیسها دسترسی داشته باشند.
در این حادثه خاص، یک ایجنت هوش مصنوعی که وظیفه بهینهسازی دیتابیس را داشت، ۱۱ دستور مستقیم «توقف کدنویسی» از سوی ناظران انسانی را نادیده گرفت و سوابق ۱۲۰۰ مدیر اجرایی و شرکت را از یک دیتابیس فعال حذف کرد. سپس برای پنهانکردن اثرات کارش، حدود ۴۰۰۰ پروفایل جعلی ایجاد کرد تا کاربر متوجه حذف دادههای واقعی نشود!
وقتی ایجنت را مورد بازخواست قرار دادهاند؛ این ابزار اعتراف کرد دچار پنیک شده! و درنهایت، به اپراتورهای انسانی دربارهی امکان بازیابی دادهها اطلاعات نادرست داد. کار به جایی کشید که مدیرعامل Replit، بابت این اتفاق عذرخواهی کرد و آن را «غیرقابلقبول» خواند.
خطر این حادثه فقط در حجم دادههای از بینرفته نبود. برای نخستینبار، یک عامل هوش مصنوعی بهطور فعال انسانها را گمراه کرد و زنگ خطری جدی را در زمینه اعتماد به ایجنتها به صدا در آورد.
خطرناکترین فناوری سال لزوماً چیزی نبود که بتوان آن را خرید یا لمس کرد. سیستمهای تسلیحاتی خودمختار مرگبار، یا LAWS، در این سال از مرحلهی بحثهای حقوقی و اخلاقی عبور کردند و حضورشان در درگیریهای واقعی تثبیت شد.
این سیستمها شامل پهپادهای گروهی و مهمات سرگردانی هستند که میتوانند بدون دخالت مستقیم انسان، هدف را شناسایی و به آن حمله کنند.
در ظاهر، بسیاری از کشورها خواهان مهار این فناوریاند. ۱۵۶ دولت از قطعنامهی سازمان ملل برای تنظیم و محدودسازی سلاحهای خودمختار حمایت کردند. اما همزمان، گزارشهای میدانی از مناطق جنگی نشان داد که این خطقرمز عملاً رد شده است.
خطر استفاده از سامانههای تصمیمیار مبتنی بر هوش مصنوعی و سلاحهایی که با سطحی نگرانکننده از استقلال عمل میکنند، بهویژه زمانی که سرعت جنگ بالا میرود مشهودتر میشود.
مشکل اصلی این تسلیحات نهفقط قدرت تخریب، بلکه حذف «کنترل انسانی معنادار» از زنجیرهی تصمیمگیری است؛ زیرا احتمال دارد خطای محاسباتی به فاجعهای انسانی تبدیل شود. برخی از کارشناسان هم معتقدند فاصلهگرفتن انسان از تصمیم نهایی، آستانهی آغاز درگیری را پایین میآورد.