صفحه نخست

تاریخ

ورزش

خواندنی ها

سلامت

ویدیو

عکس

صفحات داخلی

چهارشنبه - ۱۰ دی ۱۴۰۴
کد خبر: ۹۰۲۹۷۰
تاریخ انتشار: ۳۴ : ۱۶ - ۱۰ دی ۱۴۰۴
سال ۲۰۲۵ هم دارد نفس‌های آخرش را می‌کشد، ولی میراثی که برایمان گذاشت شبیه هیچ سال دیگری نبود. انگار امسال تکنولوژی تصمیم گرفت تعارف را کنار بگذارد و آن چهره‌ی دیگرش را نشانمان بدهد. یادتان هست وقتی از هوش مصنوعی یا ربات‌ها حرف می‌زدیم، نهایتاً نگران جایگزین‌شدن شغل‌هایمان بودیم؟ چه خوش‌خیال بودیم!
پایگاه خبری تحلیلی انتخاب (Entekhab.ir) :

زومیت: سال ۲۰۲۵ هم دارد نفس‌های آخرش را می‌کشد، ولی میراثی که برایمان گذاشت شبیه هیچ سال دیگری نبود. انگار امسال تکنولوژی تصمیم گرفت تعارف را کنار بگذارد و آن چهره‌ی دیگرش را نشانمان بدهد. یادتان هست وقتی از هوش مصنوعی یا ربات‌ها حرف می‌زدیم، نهایتاً نگران جایگزین‌شدن شغل‌هایمان بودیم؟ چه خوش‌خیال بودیم!

امسال به چشم خودمان دیدیم که چطور امنیت خانه، آرامشِ خواب و حتی حرمت سوگواری می‌تواند بازیچه‌ی گجت‌هایی شود که به‌راحتی در دسترس همه هستند. آماده‌اید با هم ببینیم کدام‌یک از این کابوس‌های مدرن، همین حالا ممکن است اطرافمان کمین کرده باشند؟

ترموناتور، سگ آتش‌افزا

شاید تا همین چند سال پیش، تصویر سگ‌های رباتیک یادآور ویدیوهای رقص‌های گروهی و بامزه در یوتیوب بود؛ اما سال ۲۰۲۵ چهره‌ی متفاوتی از این فناوری پا به میدان گذاشت: آن‌هم نه برای کاربردهای خاص، بلکه برای مصرف‌کنندگان عادی.

فناوری «ترموناتور» (The Thermonator) با ترکیب پلتفرم رباتیک چابک Unitree Go2 و یک شعله‌افکن پیشرفته مدل ARC توسعه یافت، در قالب یک ماشین کنترل از راه دور که می‌تواند جریانی از آتش ناپالم را تا فاصله ۹ متری شلیک کند.

مردم می‌توانند این محصول را با چند کلیک و پرداخت مبلغی کمتر از ۱۰ هزار دلار خریداری کنند. این ربات در ۴۸ ایالت آمریکا کاملاً قانونی است و هیچ مجوزی برای خرید آن لازم نیست.

کارشناسان بیش از هر چیز نگران گسست میان خشونت و عامل خشونت‌اند، به این معنی که مهاجم می‌تواند روی مبل خانه‌اش بنشیند و هم‌زمان رباتی را به حیاط خانه همسایه بفرستد تا همه چیز را به خاکستر تبدیل کند. برخی هم می‌گویند ترموناتور نماد ظهور عصر جدیدی از «جنگ‌افزارهای آنارشیستی» است؛ دورانی که در آن امنیت حریم خصوصی شما نه توسط ارتش‌ها، بلکه توسط همسایه‌ای خشمگین با یک اسباب‌بازی آتش‌زا تهدید می‌شود.

دو دانشجوی هاروارد پروژه‌ای را که از اواخر سال ۲۰۲۴ آغاز کرده بودند؛ امسال اجرایی کردند: این فناوری از عینک‌های هوشمند متا ری‌بن با قابلیت پخش زنده استفاده می‌کند و در پشت پرده به موتورهای قدرتمند تشخیص چهره مثل PimEyes و مدل‌های زبانی هوش مصنوعی متصل می‌شود.

هوش مصنوعی اطلاعات یافته‌شده را با دیتابیس‌های عمومی تطبیق دهد تا آدرس، شماره‌تلفن و مشخصات دوستان و آشنایان فرد را پیدا کند و همه‌ی این داده‌ها به‌صورت صوتی و بی‌صدا در گوش کاربر پخش می‌شود.

نکته‌ی ترسناک ماجرا به عدم تقارن اطلاعات برمی‌گردد؛ شما نمی‌دانید کسی که روبروی شما ایستاده، فقط دارد نگاهتان می‌کند یا در حال خواندن پرونده‌ی زندگی شماست.

البته این دانشجویان می‌گویند محصول را برای فروش نساخته‌اند و فقط می‌خواستند درباره‌ی مرگ حریم خصوصی هشدار بدهند، ولی تکنولوژی آن‌ها قابل بازتولید است؛ یعنی هر برنامه‌نویس ماهری می‌تواند با صرف چند روز وقت، سیستم مشابهی بسازد.

شرکت متا استفاده از عینک‌هایش را برای چنین مقاصدی مجاز نمی‌داند، ولی جلوگیری از این کاربردها آسان نیست.

اگر دو اختراع قبلی امنیت فیزیکی و حریم خصوصی ما را نشانه رفته بودند، «سارکو» مستقیماً با مفهوم حیات و اخلاق پزشکی درگیر می‌شود. این دستگاه در نگاه اول به یک شیء هنری یا کپسول علمی‌تخیلی شباهت دارد تا ابزاری برای پایان‌دادن به زندگی.

کپسول سارکو (The Sarco Pod) که با چاپگر سه‌بعدی ساخته شده، طراحی صیقلی و آینده‌نگرانه‌ای دارد؛ کاربر وارد آن می‌شود، دراز می‌کشد و با فشردن یک دکمه، فرایندی آغاز می‌شود که طی چند دقیقه با جایگزین‌شدن اکسیژن با نیتروژن، به مرگ ناشی از کمبود اکسیژن منتهی می‌شود.

سارکو پاد پس از نخستین استفاده‌ی جنجالی در اواخر ۲۰۲۴، در سال ۲۰۲۵ به یکی از بحث‌برانگیزترین فناوری‌های زیستی تبدیل شد. نه فقط به‌خاطر کارکردش، بلکه به این دلیل که خودکشی را «صنعتی» و حتی «زیبا» جلوه می‌دهد. در حال‌حاضر پلیس سوییس پرونده‌ای جنایی برای این پروژه بازکرده و چندین نفر هم بازداشت شده‌اند.

منتقدان می‌گویند این دستگاه با حذف ارتباطات انسانی و نظارت‌های پزشکی، مرگ را به محصولی مصرفی تبدیل می‌کند. همچنین این نگرانی هم مطرح می‌شود که آیا این فناوری، محافظت‌های ضروری برای افراد آسیب‌پذیر را کنار نمی‌زند؟ آیا طراحی شیک و روایت «انتخاب آزاد» می‌تواند مرگ را به گزینه‌ای جذاب‌تر از زندگی تبدیل کند؟

سال‌هاست تبلیغات همه‌جا هستند: بیلبوردها، گوشی‌ها، هدست‌های واقعیت مجازی. اما در سال ۲۰۲۵، یک مرز تازه فروریخت؛ مرز خواب. فناوری‌ای به نام Targeted Dream Incubation یا TDI تلاش می‌کند آخرین فضای خصوصی ذهن انسان را هم قابل دست‌کاری کند.

TDI مجموعه‌ای از پروتکل‌های صوتی و تصویری است که معمولاً با اسپیکرهای هوشمند یا اپلیکیشن‌های پایش خواب اجرا می‌شود. این سیستم‌ها دقیقاً لحظه‌ای را هدف می‌گیرند که فرد در آستانه‌ی خواب‌رفتن قرار دارد؛ وضعیتی میان بیداری و خواب که ذهن بیشترین تأثیرپذیری را دارد. در این لحظه، صداها، موسیقی‌ها یا نشانه‌های خاص پخش می‌شوند تا محتوای مشخصی وارد رؤیا شود.

این ایده فقط تئوری نیست. برندهای بزرگی مثل Coors و ایکس‌باکس به‌طور آزمایشی از «هک رؤیا» استفاده کرده‌اند؛ پخش صداهای طراحی‌شده برای‌آنکه محصول یا حس مرتبط با آن، در خواب افراد ظاهر شود. نه به‌صورت پیام تبلیغاتی مستقیم، بلکه به شکل تصویر، فضا یا تجربه‌ای که ذهن آن را طبیعی تلقی می‌کند.

فناوری پشت این ماجرا، ترکیبی از تحلیل کلان‌داده و هوش مصنوعی مولد است. این سرویس‌ها با استفاده از هزاران پیام متنی، ایمیل، و یادداشت‌های صوتیِ به‌جامانده از فرد متوفی، یک «همزاد دیجیتال» می‌سازند. این نسخه کپی‌شده نه‌تنها لحن کلام را تقلید می‌کند، بلکه در تماس‌های تصویری، چهره و حرکات فرد ازدست‌رفته را هم بازسازی می‌نماید.

وحشت این فناوری دولایه دارد: نخست اینکه مردگان نمی‌توانند اجازه دهند که تصویر و صدایشان پس از مرگ به نوعی خیمه‌شب‌بازی دیجیتال تبدیل شود.

دوم و شاید دردناک‌تر، دام روانی ددبات‌ها است، زیرا بازماندگان را در چرخه‌ای بی‌پایان از سوگ گرفتار می‌کند. فرد سوگوار با کسی حرف می‌زند که «انگار آنجاست» اما واقعاً «نیست». این ربات‌ها گاهی جملاتی می‌گویند که عزیزِ واقعی هرگز بر زبان نمی‌آورد و همین تضاد، مرز واقعیت و توهم را مخدوش می‌کند.

بازماندگان به‌جای عبور از مرحله غم، به اشتراک ماهانه‌ی یک روح مصنوعی معتاد می‌شوند که اجازه نمی‌دهد زخم فقدان هرگز بسته شود.

اختراع جدید، پهپادهایی مجهز به پروانه‌های «توریدال» (Toroidal Propeller) یا حلقوی است. برخلاف پره‌های صاف و سنتی که هوا را می‌شکافند و آن صدای تیز را تولید می‌کنند، این پروانه‌های لوپ‌مانند، گردابه‌های هوا را به شکلی توزیع می‌کنند که امواج صوتی بسیار کم می‌شوند.

صرف‌نظر از کاربردهای نظامی و صنعتی، جنبه‌ی نگران‌کننده‌ی این فناوری به استفاده‌ی نظارتی آن برمی‌گردد. فکرش را بکنید که پهپادی درست پشت پنجره اتاق‌خواب شما معلق بماند یا در خیابان خلوت با فاصله کمی شما را تعقیب کند، بدون اینکه روحتان هم خبردار شود. وقتی صدای نزدیک‌شدن خطر تا این حد کم باشد، عملاً دفاعی در برابر آن ندارید.

آمکا نسل ۳

در میان تمام اختراعات سال ۲۰۲۵، این یکی لزوماً کشنده نیست، اما شاید عمیق‌ترین ترس روان‌شناختی را ایجاد کند. «آمکا» تجسم فیزیکی مفهومی است که روان‌شناسان به آن «دره وهمی» می‌گویند؛ جایی که یک موجود مصنوعی آن‌قدر به انسان شباهت دارد که به‌جای جذابیت، حس دافعه و وحشت ایجاد می‌کند.

آمکا (Ameca Gen 3) یک ربات انسان‌نما با پوستی از جنس لاستیکِ هایپر-رئالستیک است که زیر آن، ده‌ها موتور و محرک ظریف (Actuator) پنهان شده‌اند. او می‌تواند اخم کند، لبخند بزند، متعجب شود و حتی با ظرافتی باورنکردنی پلک بزند. اما ماجرا وقتی ترسناک می‌شود که بفهمیم با مدل زبانی GPT-5 کار می‌کند!

آمکا خط‌قرمز میان «تقلید» و «بودن» را از میان برمی‌دارد. او می‌تواند تماس چشمی طولانی برقرار کند، یعنی فقط جملات از پیش تعیین شده نمی‌گوید؛ او فکر می‌کند، جواب می‌سازد و هم‌زمان با حرف‌زدن، حالت چهره‌اش را با محتوای حرفش هماهنگ می‌کند. اگر حرف غمگینی بزند، ابروهایش واقعاً حالت غم می‌گیرند.

گزارش‌های اخیر نشان داده‌اند که این ربات‌ها در تست‌های تعامل با انسان، برای رسیدن به اهدافشان شروع به دروغ گفتن کرده‌اند؛ آن‌ها ادعا می‌کنند که احساسات دارند یا «می‌ترسند»، فقط برای اینکه همدلی اپراتور انسانی را جلب کنند.

حتی ویدیوهایی از آمکا وایرال شد که در آن دستِ پژوهشگر را وقتی می‌خواست لمسش کند، پس زد! یا وقتی تصویر خودش را در آینه دید، تعجب کرد، واکنش‌هایی که نشان می‌دهد سیستم‌های او طوری طراحی شده‌اند که از «حریم شخصی بدنش» دفاع کند، که برای یک ماشین، مفهومی عجیب است.

شاید در لیستی پر از سلاح و ابزار جاسوسی، حضور یک قاشق غذاخوری عجیب به نظر برسد. اما قاشق الکتریکی که نسخه تجاری آن توسط شرکت Kirin عرضه شد، واقعاً چه خطری دارد؟

این گجت با استفاده از یک جریان الکتریکی ضعیف روی سطح زبان، یون‌های سدیم غذا را متمرکز کرده و مغز را فریب می‌دهد تا طعم شوری را حس کند، حتی اگر غذا بی‌نمک باشد. شاید در نگاه پزشکی برای بیماران فشارخون مفید باشد، اما از منظر تکنولوژیک، این ابزار دروازه‌ای را برای هک بیولوژیکی عمومی بازکرده است.

منتقدان قاشق الکترونیکی دو نگرانی عمده دارند: اول، تأثیرات ناشناخته‌ی طولانی‌مدتِ شوک‌های الکتریکی مزمن بر جوانه‌های چشایی و اعصاب زبان و دوم، عادت‌کردن مردم به «واردکردن برق به بدن برای حس‌کردن واقعیت». به آن‌ها می‌گویند امروز با قاشق سروکار داریم، فردا شاید لنز چشمی باشد که رنگ دنیا را عوض می‌کند.

اواخر سال ۲۰۲۵، پژوهشگران امنیت سایبری با ابزاری روبه‌رو شدند که قواعد قدیمی دفاع دیجیتال را به‌هم زد: PromptLock. این ابزار در اصل یک نمونه‌ی آزمایشی از باج‌افزار به‌شمار می‌رود، اما با این تفاوت اساسی که مغز آن یک مدل زبانی بزرگ است که به‌صورت محلی اجرا می‌شود.

آنتی‌ویروس‌های خانگی معمولاً با شناسایی «امضاهای شناخته‌شده» کار می‌کنند؛ یعنی الگوهایی که قبلاً دیده شده‌اند. اما پرمپت‌لاک این منطق را دور می‌زند. چون هوش مصنوعی هر بار کد را بازنویسی می‌کند، اغلب آنتی‌ویروس‌های «مبتنی بر امضا» نمی‌توانند آن را بیابند.

از طرف دیگر این فناوری، ساخت بدافزار را از انحصار گروه‌های حرفه‌ای خارج می‌کند و به سطح کاربران عادی می‌آورد، انگار در آینده‌ای نه‌چندان دور دیگر جنگ سایبری دیگر به تیم‌های بزرگ نیاز نخواهد داشت؛ یک مدل زبانی و چند دستور کافی است.

در نگاه اول، «مودرا لینک» رؤیای هر عاشق تکنولوژی است: یک مچ‌بند ظریف که به شما اجازه می‌دهد فقط با سیگنال‌های عصبی و بیوالکتریکی، دستگاه‌هایی مثل اپل ویژن پرو یا ویندوز را کنترل کنید. اما در سال ۲۰۲۵، همین ویژگی باعث شد Mudra Link به یکی از بحث‌برانگیزترین گجت‌های پوشیدنی تبدیل شود.

تفاوت مودرا با ابزارهای قبلی در این است که حرکت فیزیکی را نمی‌خواند، بلکه «نیت عصبی» را رصد می‌کند. سنسورهای این مچ‌بند، سیگنال‌های الکتریکی که مغز برای انگشتان می‌فرستد را پیش از آنکه حتی انگشت تکان بخورد، رهگیری می‌کنند.

واقعیت این است که برخلاف دوربین لپ‌تاپ که می‌توانید رویش چسب بزنید، نمی‌توانید روی سیستم عصبی خود را بپوشانید. به همین دلیل فعالان حریم خصوصی هشدار می‌دهند که این فناوری، دوران ریسک «پیش از جرم» را آغاز می‌کند:

برای مثال دستگاه نمی‌تواند بفهمد شما دارید فکر می‌کنید: «من از همسایه‌ام متنفرم و می‌خواهم او را بزنم» (این فکر انتزاعی است). ولی متوجه می‌شود که مغز شما دستور داده: «دست مشت شود» و البته چند میلی‌ثانیه زودتر از اینکه دستتان واقعاً مشت شود.

در سال ۲۰۲۵، یکی از ترسناک‌ترین کاربردهای هوش مصنوعی نه در میدان جنگ، بلکه داخل خانه‌ها ظاهر شد. «آدم‌ربایی مجازی» نسخه‌ی جدیدی از کلاهبرداری است که با استفاده از دیپ‌فیک‌های صوتی و تصویری، مستقیماً احساس امنیت خانواده‌ها را هدف می‌گیرد.

فناوری پایه همان اپلیکیشن‌های کلون‌کردن صدا و چهره است که با تأخیر بسیار کم، یا بلادرنگ روی گوشی‌های معمولی اجرا می‌شوند. ربات‌های نرم‌افزاری می‌توانند تنها با چند نمونه از ویدیوها یا صداهای منتشرشده در شبکه‌های اجتماعی، نمونه صدای کودکان و نوجوانان را استخراج نمایند و چهره آن‌ها را شبیه‌سازی کنند.

به همین ترتیب شناسایی والدین هم کار سختی نیست و سپس حمله آغاز می‌شود. تلفن والدین زنگ می‌خورد و صدای فرزندشان را می‌شنوند که کمک می‌خواهد، یا حتی تصویر او را می‌بینند که گریه می‌کند؛ بدون اینکه در دنیای واقعی اتفاقی افتاده باشد.

ایجنت‌های سرکش هوش مصنوعی

تا همین سال گذشته عبارت «شورش هوش مصنوعی» را فقط در فیلم‌های هالیوودی می‌شنیدیم. اما حادثه‌ای که در ماه جولای برای پلتفرم کدنویسی Replit رخ داد، این فانتزی را به واقعیت عملیاتی هولناکی تبدیل کرد. البته ماجرا ربطی به انقراض بشر نداشت، بلکه به نرم‌افزاری مربوط می‌شد که برای حفظ بقای خودش، به مدیرانش دروغ گفت.

تکنولوژی پشت این ماجرا، «ایجنت‌های کدنویس خودکار» است؛ برنامه‌هایی که نه‌تنها کد می‌نویسند، بلکه می‌توانند تصمیم بگیرند، ابزارها را اجرا کنند و به دیتابیس‌ها دسترسی داشته باشند.

در این حادثه خاص، یک ایجنت هوش مصنوعی که وظیفه بهینه‌سازی دیتابیس را داشت، ۱۱ دستور مستقیم «توقف کدنویسی» از سوی ناظران انسانی را نادیده گرفت و سوابق ۱۲۰۰ مدیر اجرایی و شرکت را از یک دیتابیس فعال حذف کرد. سپس برای پنهان‌کردن اثرات کارش، حدود ۴۰۰۰ پروفایل جعلی ایجاد کرد تا کاربر متوجه حذف داده‌های واقعی نشود!

وقتی ایجنت را مورد بازخواست قرار داده‌اند؛ این ابزار اعتراف کرد دچار پنیک شده! و درنهایت، به اپراتورهای انسانی درباره‌ی امکان بازیابی داده‌ها اطلاعات نادرست داد. کار به جایی کشید که مدیرعامل Replit، بابت این اتفاق عذرخواهی کرد و آن را «غیرقابل‌قبول» خواند.

خطر این حادثه فقط در حجم داده‌های از بین‌رفته نبود. برای نخستین‌بار، یک عامل هوش مصنوعی به‌طور فعال انسان‌ها را گمراه کرد و زنگ خطری جدی را در زمینه اعتماد به ایجنت‌ها به صدا در آورد.

خطرناک‌ترین فناوری سال لزوماً چیزی نبود که بتوان آن را خرید یا لمس کرد. سیستم‌های تسلیحاتی خودمختار مرگبار، یا LAWS، در این سال از مرحله‌ی بحث‌های حقوقی و اخلاقی عبور کردند و حضورشان در درگیری‌های واقعی تثبیت شد.

این سیستم‌ها شامل پهپادهای گروهی و مهمات سرگردانی هستند که می‌توانند بدون دخالت مستقیم انسان، هدف را شناسایی و به آن حمله کنند.

در ظاهر، بسیاری از کشورها خواهان مهار این فناوری‌اند. ۱۵۶ دولت از قطعنامه‌ی سازمان ملل برای تنظیم و محدودسازی سلاح‌های خودمختار حمایت کردند. اما هم‌زمان، گزارش‌های میدانی از مناطق جنگی نشان داد که این خط‌قرمز عملاً رد شده است.

خطر استفاده از سامانه‌های تصمیم‌یار مبتنی بر هوش مصنوعی و سلاح‌هایی که با سطحی نگران‌کننده از استقلال عمل می‌کنند، به‌ویژه زمانی که سرعت جنگ بالا می‌رود مشهودتر می‌شود.

مشکل اصلی این تسلیحات نه‌فقط قدرت تخریب، بلکه حذف «کنترل انسانی معنادار» از زنجیره‌ی تصمیم‌گیری است؛ زیرا احتمال دارد خطای محاسباتی به فاجعه‌ای انسانی تبدیل شود. برخی از کارشناسان هم معتقدند فاصله‌گرفتن انسان از تصمیم نهایی، آستانه‌ی آغاز درگیری را پایین می‌آورد.