هوش مصنوعی وارد انواع و اقسام صنایع شده و روزبه‌روز نقش مهم‌تری پیدا می‌کند و به همین دلیل بررسی خطرات هوش مصنوعی هم ضرورت غیرقابل انکاری دارد. با پیشرفت شگفت‌انگیز هوش مصنوعی، این فناوری می‌تواند بسیاری از جنبه‌های زندگی را به طور شگفت‌انگیزی بهبود ببخشد اما از طرف دیگر نباید خطرات احتمالی آن را نادیده بگیریم.

با توجه به اینکه تعداد قابل توجهی از کارشناسان در مورد خطرات احتمالی هوش مصنوعی هشدار می‌دهند، بهتر است به این هشدارها توجه کنیم. از طرف دیگر، برخی مدعی هستند که چنین دیدگاه‌هایی صرفاً برای ایجاد جاروجنجال مطرح می‌شوند و هیچ خطر فوری از جانب هوش مصنوعی وجود ندارد.

بنابراین آیا نگرانی‌های مربوط به هوش مصنوعی جدی هستند یا اینکه باید آن‌ها را نادیده بگیریم؟ در این مقاله به ۵ خطر مهم هوش مصنوعی اشاره کنیم که در آینده‌ی نزدیک می‌توانند مشکلات زیادی را ایجاد کنند.

این فناوری روزبه‌روز پیچیده‌تر می‌شود و همین پیشرفت می‌تواند منجر به بروز خطرات مختلفی از جمله موارد ساده (اختلال در کار) تا خطرات فاجعه‌بار شود. با توجه به اختلاف نظری که در مورد این موضوع وجود دارد، در رابطه با سطح خطرات هوش مصنوعی هم یک دیدگاه مشترک و جامع دیده نمی‌شود. اما هوش مصنوعی چه خطراتی دارد؟ عموماً تصور می‌شود که هوش مصنوعی از دو طریق می‌تواند خطرناک باشد:
  • این فناوری برای انجام کاری مخرب برنامه‌ریزی شود.
  • این فناوری برای مفید بودن برنامه‌ریزی شود اما در حین رسیدن به هدف خود کار مخربی انجام دهد.

این ریسک‌ها با پیچیدگی نرم‌افزار هوش مصنوعی تقویت می‌شوند. سال‌ها قبل یکی از فیلسوف‌های مشهور به نام نیک بوستروم کتابی را منتشر کرد که در آن یک سناریو تحت عنوان «به حداکثر رساندن گیره کاغذ» مطرح شد. او می‌گوید فرض کنید یک هوش مصنوعی برای تولید حداکثر تعداد ممکن گیره کاغذ توسعه پیدا کند. اگر این هوش مصنوعی به اندازه‌ی کافی باهوش باشد، می‌تواند کل دنیا را برای رسیدن به این هدف نابود کند.

اما به غیر از این خطرات فاجعه‌آور که به نظر نمی‌رسد در آینده‌ی نزدیک تحقق پیدا کنند، می‌توانیم به ۵ خطر فوری اشاره کنیم که می‌توانند طی همین چند سال آینده مشکلات زیادی را ایجاد کنند.

1. اتوماسیون شغل‌ها از خطرات هوش مصنوعی

اتوماسیون یا خودکارسازی از جمله مهم‌ترین خطرات هوش مصنوعی برای شغل‌های مختلف است. از کارخانه‌ها گرفته تا اتومبیل‌های خودکار، آغاز اتوماسیون به دهه‌ها قبل برمی‌گردد ولی روزبه‌روز شتاب آن بیشتر می‌شود.

مساله این است که برای بسیاری از کارهای مختلف، سیستم‌های هوش مصنوعی نسبت به انسان‌ها عملکرد بهتری دارند. روی هم رفته در این موارد ارزان‌تر، دقیق‌تر و کارآمدتر از انسان‌ها عمل می‌کنند. به عنوان مثال، هوش مصنوعی در تشخیص جعل آثار هنری بهتر از متخصصان انسانی عمل می‌کند و حالا این سیستم‌ها در زمینه‌ی تشخیص تومور از طریق تصاویر رادیوگرافی هم در حال بهتر شدن هستند.

از طرف دیگر، وقتی که هوش مصنوعی بسیاری از شغل‌ها را تصرف کند، بخش بزرگی از کارگران که شغل خود را از دست داده‌اند به دلیل فقدان تخصص موردنیاز یا عدم وجود اعتبارات قادر به پیدا کردن شغل جدیدی نخواهند بود. با پیشرفت سیستم‌های هوش مصنوعی، مهارت‌های آن‌ها برای انجام کارهای مختلف بهتر از انسان‌ها خواهد شد و اختلال در کار هم می‌تواند منجر به افزایش نابرابری اجتماعی و حتی یک فاجعه‌ی اقتصادی شود.

2. امنیت و حریم خصوصی

مشکل اصلی این است که با افزایش نگرانی‌های امنیتی مبتنی بر هوش مصنوعی و خطرات آن، تدابیر پیش‌گیری با استفاده از هوش مصنوعی هم افزایش پیدا می‌کنند. این مشکل همچنین این سوال را مطرح می‌کند که ما چگونه سیستم‌های هوش مصنوعی را ایمن می‌کنیم؟ اگر از الگوریتم‌های هوش مصنوعی برای دفاع در برابر نگرانی‌های امنیتی استفاده می‌کنیم، باید در رابطه با ایمن بودن خود سیستم هوش مصنوعی‌ هم اطمینان حاصل کنیم.

در زمینه‌ی حریم خصوصی هم شرکت‌های بزرگ طی چند سال گذشته در این زمینه تا حد قابل توجهی زیر تیغ دولت‌ها و نهادهای نظارتی قرار گرفته‌اند. باید خاطرنشان کنیم روزانه حدود ۲.۵ ترابایت داده توسط کاربران ایجاد می‌شود و الگوریتم‌های پیشرفته با استفاده از این داده‌ها می‌توانند پروفایل‌های بسیار دقیقی را برای نمایش تبلیغات ایجاد کنند.

از دیگر نگرانی‌ها می‌توانیم به تکنولوژی‌های تشخیص چهره اشاره کنیم و گزارش‌ها حاکی از آن است که برخی از نیروهای پلیس در کشورهای مختلف برای شناسایی مجرمان تحت تعقیب یا افراد مشکوک از عینک‌های هوشمند مجهز به نرم‌افزار تشخیص چهره استفاده می‌کنند. چنین تکنولوژی‌هایی می‌توانند منجر به گسترش رژیم‌های استبدادی شوند یا اینکه افراد یا گروه‌هایی با اهداف بدخواهانه از آن‌ها سوءاستفاده کنند.

3. بدافزار هوش مصنوعی

هوش مصنوعی به طور فزاینده‌ای در هک کردن سیستم‌های امنیتی و شکستن رمزگذاری‌های مختلف بهتر می‌شود. بخشی از این موضوع به تکامل الگوریتم‌های یادگیری ماشینی برمی‌گردد. این یعنی بدافزار مبتنی بر هوش مصنوعی با آزمون و خطا بهتر می‌شود و با گذر زمان خطر آن هم افزایش پیدا می‌کند.

برخی فناوری‌های هوشمند (مانند اتومبیل‌های خودران) اهداف ایدئالی برای این نوع بدافزارها هستند و مثلا می‌توانند برای ایجاد تصادف رانندگی یا ایجاد ترافیک مورد استفاده قرار بگیرند. با افزایش وابستگی ما به فناوری‌های هوشمند متکی به اینترنت، زندگی روزمره‌ی ما هم بیش از پیش تحت تأثیر خطر اختلال قرار می‌گیرد.

4. سلاح‌های خودمختار از دیگر خطرات هوش مصنوعی

سلاح‌های خودمختار-سلاح‌هایی که به جای انسان‌ها توسط سیستم‌های هوش مصنوعی کنترل می‌شوند-مدت‌هاست که انجام وظیفه می‌کنند و می‌توانند به عنوان یکی از خطرات هوش مصنوعی برای انسان در نظر گرفته شوند. در همین زمینه باید به هشدار صدها متخصص فناوری اشاره کنیم که از سازمان ملل خواسته‌اند تا راهی برای حفاظت از بشریت در برابر سلاح‌های مستقل ایجاد کند.

نیروهای نظامی کشورهای مختلف در حال حاضر به سلاح‌های مبتنی بر هوش مصنوعی‌ یا سلاح‌هایی که تا حدی به این سیستم‌ها متکی هستند، دسترسی دارند. به عنوان مثال می‌توانیم به پهپادهای نظامی اشاره کنیم که مثلا با بهره‌گیری از سیستم‌های تشخیص چهره می‌توانند یک فرد را با دقت زیادی ردیابی کنند.

اما وقتی که به الگوریتم‌های هوش مصنوعی‌ اجازه دهیم بدون دخالت انسان در مورد مرگ و زندگی تصمیم‌گیری کنند، چه اتفاقی می‌افتد؟ چنین قابلیت‌هایی می‌توانند تبعات فاجعه‌باری به همراه داشته باشند.

5. دیپ‌فیک و اخبار جعلی از مضرات هوش مصنوعی

تکنولوژی دیپ‌فیک روزبه‌روز پیشرفته‌تر می‌شود و تشخیص جعلی بودن ویدیوهای مبتنی بر آن دشوارتر. اگرچه در حال حاضر این تکنولوژی عمدتاً برای ساخت ویدیوهای جعلی از افراد مشهور مورد استفاده قرار می‌گیرد اما همین حالا هم برخی کلاه‌برداران با استفاده از تصویر پروفایل افراد معمولی در شبکه‌های اجتماعی ویدیوهای جعلی از آن‌ها درست می‌کنند تا بتوانند باج دریافت کنند. علاوه بر این، باید به استفاده از هوش مصنوعی‌ برای ویرایش تصاویر و شبیه‌سازی صدا هم اشاره کنیم که می‌توانند تأثیر زیادی بر جامعه داشته باشند. در نتیجه باید عوارض استفاده از دیپ فیک را هم به عنوان یکی از مضرات هوش مصنوعی در نظر گرفت.