کاهش مصرف اینترنت اینستاگرام +5 روش برای کاهش حجم+میزان مصرف داده اینستا🟢
دسامبر 16, 2022روش های درآمد اینستاگرام + برای شروع درآمدزایی چند فالوور نیاز داریم؟🟢
دسامبر 18, 2022نخطرات هوش مصنوعی یکی از موضوعات مورد علاقه افراد مرتبط با تکنولوژی هاست!. هوش مصنوعی سالهاست که در حال کمک کردن به انسان ها است. از گوشی های هوشمند گرفته تا لپتاپ ها و یا صنایع بزرگ مانند هواپیماسازی و خودروسازی همه درگیر هوش مصنوعی هستند. از طرفی هم از گذشته های دور تسلط ربات ها و هوش مصنوعی بر انسان ها نگران کننده بوده است. شاید فیلم های زیادی هم در این باره شنیده باشید!. در این مقاله قصد داریم همه چیز را در مورد خطرات هوش مصنوعی صحبت کنیم!.
12 خطر هوش مصنوعی
در واقع، هوش مصنوعی میوه های شیرین بسیاری را برای ما به عنوان یک جامعه تولید می کند. اما نگرانی های قابل توجهی نیز وجود دارد. هوش مصنوعی موضوعی است که تخیل بسیاری از افراد را به خود جلب می کند. البته این تا حد زیادی نتیجه فیلم های هالیوودی زیادی است که درباره این مفهوم ظاهر شده است. معمولاً در فیلم های هالیوودی سناریوهای نابودی علمی تخیلی را می بینید. آنها تقریباً همیشه اغراق آمیز هستند. با این حال تعداد فزاینده ای از گزارش های هشدار دهنده در مورد هوش مصنوعی ظاهر شده است که توسط جهش رشد کیفی این فناوری جدید تقویت شده است. (به ویژه بهبود کیفی یادگیری ماشینی و یادگیری عمیق).
داستان های علمی تخیلی در حال تبدیل شدن به واقعیت است. این به این دلیل است که سیستمهای رایانهای هوشمند به طور فزایندهای در به خاطر سپردن و خواندن آنچه ما بهعنوان مردم قادر به انجام آنها هستیم ماهر میشوند . این شامل مهارتهایی مانند نگاه کردن، گوش دادن یا صحبت کردن است. آنها یاد می گیرند که الگوها و قوانین را از حجم عظیمی از داده ها کشف کنند. این سیستم ها به راحتی در برخی زمینه ها دست بالا را دارند. این عواقب بسیار کمی دارد.
1. عدم شفافیت
بسیاری از سیستم های هوش مصنوعی با به اصطلاح شبکه های عصبی که به عنوان موتور کار می کنند ساخته شده اند. اینها سیستم های گره ای پیچیده به هم پیوسته هستند. با این حال، این سیستم ها کمتر قادر به نشان دادن “انگیزه” خود برای تصمیم گیری هستند. شما فقط ورودی و خروجی را می بینید. سیستم بسیار پیچیده است. مهم است که بتوانیم دادههای خاصی را که منجر به تصمیمهای خاص شده است، ردیابی کنیم. چه فکر یا استدلال اساسی به خروجی منجر شد؟. برای آموزش مدل از چه داده هایی استفاده شده است؟. مدل چگونه “فکر می کند”؟ ما در حال حاضر به طور کلی در این مورد در تاریکی هستیم. این یکی از خطرات هوش مصنوعی است!.
2. الگوریتم های مغرضانه
هنگامی که مجموعه داده های الگوریتم خود را که حاوی داده های بایاس هستند تغذیه می کنیم، سیستم به طور منطقی سوگیری های ما را تأیید می کند. در حال حاضر نمونههای زیادی از سیستمهایی وجود دارد که به میزان بیشتری نسبت به جمعیت سفیدپوست به اقلیتهای قومی آسیب میرسانند. به هر حال، وقتی یک سیستم با داده های تبعیض آمیز تغذیه می شود، این نوع داده ها را تولید می کند. از آنجایی که خروجی از یک کامپیوتر است، پاسخ درست فرض می شود.
این مبتنی بر به اصطلاح سوگیری اتوماسیون است، که تمایل انسان به جدیتر گرفتن پیشنهادات از «سیستمهای تصمیمگیری خودکار» و نادیده گرفتن دادههای متناقض ایجاد شده توسط افراد است. حتی اگر درست باشد). هنگامی که به سیستم های تبعیض آمیز داده های تبعیض آمیز جدید داده می شود (زیرا این همان چیزی است که رایانه می گوید) به یک پیشگویی خود-شکوفایی تبدیل می شود. به یاد داشته باشید، تعصبات اغلب یک نقطه کور هستند.
شرکت ها هنوز تخصص کمی در اختیار دارند تا بتوانند این مجموعه داده ها را به درستی ارزیابی کنند و هرگونه فرضیات و داده های مغرضانه را فیلتر کنند. آسیب پذیرترین گروه ها حتی بیش از حد معمول از این سیستم ها آسیب دیده اند. نابرابری افزایش خواهد یافت. در بدترین حالت، الگوریتمها برنده و بازنده را انتخاب میکنند. این شبیه به کلاه طبقه بندی سخنگو از فیلم هری پاتر است: هیچ کس دقیقاً نمی داند در داخل چه اتفاقی می افتد، اما شما فقط باید حقیقت را بپذیرید.
بیشتر بخوانید🚀🚀🚀🚀🚀: هک گوشی متصل به وای فای
3. مسئولیت اعمال
هنوز چیزهای زیادی در مورد جنبه های قانونی سیستم هایی که به طور فزاینده ای هوشمند می شوند نامشخص است. وقتی سیستم هوش مصنوعی مرتکب خطا می شود، وضعیت از نظر مسئولیت چگونه است؟. آیا ما در این مورد مانند یک انسان قضاوت می کنیم؟. در سناریویی که در آن سیستمها تا حد زیادی خودآموز و مستقل میشوند چه کسی مسئول است؟. آیا یک شرکت هنوز هم می تواند پاسخگوی الگوریتمی باشد که خود آموخته است و متعاقباً مسیر خود را تعیین می کند و بر اساس حجم عظیمی از داده ها، نتایج خود را برای رسیدن به تصمیمات خاص گرفته است؟. آیا ما حاشیه خطای ماشینهای هوش مصنوعی را میپذیریم، حتی اگر این گاهی اوقات عواقب مهلکی داشته باشد؟.
4. یک دستور خیلی بزرگ
هرچه از سیستم های هوشمند بیشتری استفاده کنیم، بیشتر با موضوع دامنه مواجه خواهیم شد. میزان وظیفه ای که ما به دستیاران مجازی هوشمند خود می دهیم چقدر است؟. چه چیزهایی را دارند و نمیتوانند برای ما تصمیم بگیرند؟. آیا استقلال سیستمهای هوشمند را بیش از این گسترش میدهیم؟. یا باید به هر قیمتی که اتحادیه اروپا ترجیح میدهد کنترل آن را حفظ کنیم؟. ما به سیستم های هوشمند اجازه نمی دهیم و بدون دخالت انسان چه چیزهایی را تعیین و اجرا می کنند؟ . آیا احتمالاً یک عملکرد پیشنمایش در سیستمهای هوش مصنوعی هوشمند به صورت استاندارد نصب میشود؟.
این خطر وجود دارد که ما استقلال بیش از حد را بدون توسعه کامل فناوری و پیششرطها و بدون اینکه در طول زمان آگاه باشیم که وظایف مربوطه را کجا و به چه دلیل برون سپاری کردهایم، وجود دارد. در واقع، این خطر وجود دارد که ما به طور فزاینده ای در دنیایی قرار بگیریم که دیگر آن را درک نمی کنیم. ما نباید از همدلی و همبستگی بین فردی خود غافل شویم. زیرا این خطر واقعی وجود دارد که تصمیمات دشوار (مثلاً اخراج از کار) را به راحتی به دستگاه های “هوشمند” بسپاریم زیرا ما خودمان این کار را بسیار دشوار می دانیم.
استفاده از هوش مصنوعی در جهان به شدت در حال افزایش است و خطرات هوش مصنوعی هم به همان نسبت افزایش پیدا می کند.
5. حریم خصوصی خیلی کم
ما هر روز 2.5 کوئینتیلیون بایت داده ایجاد می کنیم (که 2.5 میلیون ترابایت است که 1 ترابایت برابر با 1000 گیگابایت است). از کل داده های دیجیتالی در جهان، 90 درصد در دو سال گذشته ایجاد شده است. یک شرکت به مقادیر قابل توجهی داده خالص نیاز دارد تا امکان عملکرد صحیح سیستم های هوشمند خود را فراهم کند. جدای از الگوریتم های با کیفیت بالا، قدرت یک سیستم هوش مصنوعی نیز در داشتن مجموعه داده های با کیفیت بالا در اختیار فرد است.
شرکتهایی که درگیر هوش مصنوعی هستند، وقتی نوبت به دادههای ما میرسد، به طور فزایندهای به Greedy Gus تبدیل میشوند: این هرگز کافی نیست و هر چیزی برای دستیابی به نتایج بهتر قابل توجیه است. برای مثال، ریسک این است که شرکتها با دقت بیشتر، مشخصات واضحتری از ما ایجاد میکنند و این منابع نیز برای اهداف سیاسی استفاده میشوند.
در حفظ حریم خصوصی، شرکتها به سادگی از گروههای هدف مشابه استفاده خواهند کرد. افرادی که خیلی شبیه ما هستند و دادههای ما بهطور انبوه با کاهش آگاهی در مورد اینکه چه کسی آنها را دریافت میکند یا برای چه اهدافی استفاده میشود، دوباره فروخته میشود. داده ها روغن روان کننده سیستم های هوش مصنوعی هستند و حریم خصوصی ما در هر صورت در خطر است.
بیشتر بخوانید🚀🚀🚀🚀🚀 کاهش مصرف اینترنت اینستاگرام
6. شرکت های بزرگ فناوری نفوذ زیادی دارند
موضوع فوق با قدرت شرکت های بزرگ فناوری، یعنی فیس بوک، مایکروسافت، گوگل، اپل، علی بابا، تنسنت، بایدو و آمازون مرتبط است. این هشت شرکت فناوری توانایی مالی، دادهها و توانایی فکری برای بالا بردن کیفیت هوش مصنوعی را دارند. بنابراین این خطر وجود دارد که فناوری بسیار قدرتمند در دستان گروه نسبتاً کوچکی از شرکتهای تجاری (!) قرار گیرد. هرچه فناوری بهتر باشد، افراد بیشتری شروع به استفاده از آن کنند، فناوری موثرتر می شود و غیره. این به شرکت های بزرگ مزیت بیشتری خواهد داد. مکانیسم برنده همه چیز در عصر اینترنت در مورد داده ها (انحصار داده ها) و الگوریتم ها نیز اعمال می شود.
همچنین، انتقال الگوریتمها در به اصطلاح «یادگیری انتقالی» روز به روز مؤثرتر میشود. در این صورت، به طور فزاینده ای داده های کمتری برای یک نتیجه خوب مورد نیاز خواهد بود. برای مثال، سیستمی از گوگل، برای مدتی ترجمه با کیفیتی از انگلیسی به اسپانیایی و پرتغالی ارائه میکرد. با کمک تکنیک های جدید یادگیری انتقالی، این سیستم اکنون قادر به ترجمه از اسپانیایی به پرتغالی و بالعکس با ورودی بسیار محدود است. شرکت های بزرگ فناوری مالک داده ها و این مدل های یادگیری هستند.
تجربه نشان میدهد که هدف تجاری که قبلاً ذکر شد همیشه غالب خواهد بود و باید دید که این شرکتها چگونه از این فناوری در آینده استفاده خواهند کرد. البته این که خطرات هوش مصنوعی را هم چگونه کنترل می کنند مهم است!.
7. هوش مصنوعی
من شخصاً معتقدم که بحث در مورد معایب هوش مصنوعی غالباً با بحث در مورد ابرهوشی غالب است. دومی به سیستم هایی با هوشی اشاره دارد که از چند جنبه بسیار از هوش انسانی پیشی می گیرد. در نتیجه، آنها قادر به کسب همه نوع مهارت ها و تخصص ها بدون دخالت انسان هستند، می توانند خود را برای موقعیت های ناشناخته آموزش دهند و قادر به درک زمینه هستند. آنها نوعی اوراکل فوق العاده هوشمند هستند. که انسان ها را فقط به عنوان “حلزون های باغ” در نظر می گیرند: تا زمانی که شما را آزار ندهند، اجازه زندگی دارند.
اول از همه، من معتقدم که ما باید این سناریو را جدی بگیریم . در درجه اول باید بر انتقال اخلاق اخلاقی خود به سیستم های هوشمند تمرکز کنیم. به عبارت دیگر، ما نباید قوانینی را به آنها بیاموزیم، بلکه باید چیزی در مورد ملاحظات انسانی به آنها آموزش دهیم. این خیلی اهمیت دارد. من
اگر به آنها “وجدان” بدهیم، بهتر است. در غیر این صورت آنها به شخصیت های ضد اجتماعی تبدیل می شوند. آنچه من قصد دارم بگویم این است که من باور ندارم که در کوتاه مدت حتی کوچکترین نشانه ای از آگاهی را در این سیستم ها ببینیم. فناوری برای این کار بسیار جوان است . اگر اصلاً امکان ایجاد آگاهی در این سیستم ها وجود داشته باشد. بنابراین فکر کردن در مورد آن کاملاً خوب است و ما واقعاً باید هوش فوق العاده را جدی بگیریم، اما مطمئناً اکنون خطرات دیگری نیز وجود دارد.
نکته:
می خواهم یک نکته ظریف را در اینجا اضافه کنم. من آنقدر نگران سیستمی نیستم که به هر شکلی از آگاهی بر جهان مسلط شود. اما… احتمالاً ما اغلب تحت تأثیر سیستمهایی قرار میگیریم که با هدف خاصی برنامهریزی شدهاند و قصد دارند بیوقفه دنبال کنند. بدون در نظر گرفتن مسائلی که ما بهعنوان انسان مهم میدانیم، از جمله همدلی و برابری اجتماعی. صرفاً به این دلیل که آنها به این روش برنامه ریزی شده اند. زیرا آنچه ما مهم می دانیم نقطه کور آنهاست. و این داستان علمی تخیلی نیست.
فیس بوک یک مثال عالی از این است که چگونه یک سیستم هوش مصنوعی می تواند یک نتیجه کاملا منفی داشته باشد. در واقع، الگوریتم های فزاینده هوشمند فیس بوک تنها یک هدف دارند: نگه داشتن شما در پلتفرم تا زمانی که ممکن است. ایجاد حداکثر مشارکت با محتوا. جمع آوری کلیک ها و واکنش ها. اما این سیستم نسبت به موضوعاتی مانند «بازنمایی واقعی عینی موضوعات» حساس نیست. حقیقت بیاهمیت است. زیرا سیستم فقط به زمانی که شما در پلتفرم میگذرانید علاقه دارد. فیس بوک به حقیقت اهمیتی نمی دهد، با تمام عواقب مضر این امر.
8. تأثیر بر بازار کار
یکی از خطرات هوش مصنوعی این است که در سال های آینده فشاری بر بازار کار ایجاد خواهد کرد. افزایش سریع کیفیت هوش مصنوعی تضمین می کند که سیستم های هوشمند در انجام وظایف خاص بسیار ماهرتر می شوند. تشخیص الگوها در حجم وسیعی از داده ها، ارائه بینش های خاص و انجام وظایف شناختی توسط سیستم های هوش مصنوعی هوشمند انجام می شود. حرفه ای ها باید توسعه هوش مصنوعی را از نزدیک زیر نظر داشته باشند زیرا سیستم ها به طور فزاینده ای قادر به نگاه کردن، گوش دادن، صحبت کردن، تجزیه و تحلیل، خواندن و ایجاد محتوا هستند.
بنابراین مطمئناً افرادی با شغل در منطقه خطر وجود دارند که به سرعت باید خود را وفق دهند. با این حال، اکثریت قریب به اتفاق مردم با سیستم های هوش مصنوعی کار خواهند کرد. و به یاد داشته باشید: بسیاری از مشاغل جدید ایجاد خواهند شد، اگرچه تصور آنها از مشاغلی که از دست می روند دشوارتر است. نابرابری اجتماعی در سال های آینده در نتیجه شکاف بین دارای و نداشتن افزایش خواهد یافت. من معتقدم که ما به عنوان یک جامعه باید مراقب افراد نداشتن باشیم – افرادی که فقط قادر به انجام کارهای دستی یا کار مغزی مبتنی بر معمول هستند.
باید به خاطر داشته باشیم که شغل چیزی فراتر از حقوق آخر ماه است. این یک تعقیب روزانه، یک هدف، یک هویت، موقعیت و نقش در جامعه را ارائه می دهد. چیزی که ما می خواهیم از آن جلوگیری کنیم این است که گروهی از مردم در جامعه ما ظاهر شوند که حقوق دریافت می کنند و به عنوان روبات با آنها رفتار می شود.
9. سلاح های خودمختار
در تابستان امسال، ایلان ماسک از تسلا به سازمان ملل درباره تسلیحات خودمختار که توسط هوش مصنوعی کنترل می شود، هشدار داد. وی به همراه 115 کارشناس دیگر به تهدید احتمالی تجهیزات جنگی خودگردان اشاره کرد. این منطقی است: این مربوط به ابزارهای قدرتمندی است که می توانند آسیب زیادی ایجاد کنند. این فقط تجهیزات نظامی واقعی نیست که خطرناک است: با توجه به اینکه فناوری به طور فزاینده ای آسان، ارزان و کاربرپسند می شود، برای همه در دسترس خواهد بود … از جمله کسانی که قصد آسیب رساندن دارند.
هزار دلار برای شما یک پهپاد باکیفیت با دوربین می خرد. یک ویز-کود متعاقباً میتواند نرمافزاری را روی آن نصب کند که پهپاد را قادر میسازد تا به طور مستقل پرواز کند. نرمافزار تشخیص چهره هوش مصنوعی در حال حاضر در دسترس است که دوربین پهپاد را قادر میسازد تا چهرهها را تشخیص دهد و یک فرد خاص را ردیابی کند. و اگر خود سیستم شروع به تصمیم گیری درباره مرگ و زندگی کند، همانطور که اکنون در مناطق جنگی چنین است، چه؟ آیا باید این را به الگوریتم ها بسپاریم؟
و این فقط یک مسئله زمان است که اولین پهپاد خودران با تشخیص چهره و همچنین تفنگ، تپانچه یا اسلحه دیگر با چاپ سه بعدی در دسترس قرار گیرد.
بیشتر بخوانید🚀🚀🚀🚀🚀 خطرات وی پی ان
10. همه چیز غیر قابل اعتماد می شود – به عنوان مثال. اخبار جعلی و حباب های فیلتر
سیستمهای هوشمند بهطور فزایندهای توانایی تولید محتوا را پیدا میکنند . آنها میتوانند چهره بسازند، متن بنویسند، توییت تولید کنند، تصاویر را دستکاری کنند، صداها را شبیهسازی کنند و در تبلیغات هوشمند شرکت کنند.
سیستم های هوش مصنوعی می توانند زمستان را به تابستان و روز را به شب تبدیل کنند. آنها قادرند چهره های بسیار واقع گرایانه ای از افرادی که هرگز وجود نداشته اند خلق کنند. نرم افزار منبع Deepfake قادر است تصاویر چهره ها را روی فیلم های متحرک بچسباند. بنابراین در ویدیو به نظر می رسد که شما در حال انجام کاری هستید (که درست نیست و در واقع اتفاق نیفتاده است).
سلبریتیها در حال حاضر تحت تأثیر این موضوع قرار گرفتهاند. زیرا کسانی که قصد بدخواهانه دارند میتوانند به راحتی فیلمهای مختلف با بازی این افراد مشهور ایجاد کنند. هنگامی که این فناوری کمی کاربر پسندتر شد، باج گیری از یک فرد خودسر یک بازی کودکانه خواهد بود. شما می توانید از هر کسی عکس بگیرید و آن را به صورت فیلمی ناهنجار درآورید. یک ایمیل کافی است
مهممممم:
سیستمهای هوش مصنوعی که محتوای جعلی ایجاد میکنند. خطرات هوش مصنوعی خطر دستکاری و شرطیسازی توسط شرکتها و دولتها را نیز به دنبال دارند. در این سناریو، میتوان محتوا را با چنان سرعت و مقیاسی تولید کرد که نظرات را تحت تأثیر قرار داد و اخبار جعلی را با قدرت محض به جهان پرتاب کرد . مخصوصاً افرادی که در برابر آن آسیبپذیر هستند. دستکاری، قاب بندی، کنترل و تأثیرگذاری. تبلیغات محاسباتی این اقدامات اکنون واقعیت دارند.
اگر ویدیویی پخش شود که یک ژنرال اسرائیلی را نشان میدهد که با تصاویر پسزمینه چیزی که به نظر میرسد واتربردینگ است، چیزی درباره نابود کردن فلسطینیان میگوید چه میشود؟. اگر فیلمهایی از پرتاب موشکهای روسیه به شهرهای سوریه همراه با صدای ضبط شده از رئیسجمهور پوتین که به طور معمولی درباره نسلکشی صحبت میکند به ما نشان داده شود؟
11. الگوریتم های هک
سیستمهای هوش مصنوعی روز به روز هوشمندتر میشوند و به زودی میتوانند بدافزار و باجافزار را با سرعت بالا و در مقیاس وسیع توزیع کنند. علاوه بر این، آنها به طور فزاینده ای در هک کردن سیستم ها و شکستن رمزگذاری و امنیت مهارت پیدا می کنند، مانند موردی که اخیراً در مورد کلید Captcha رخ داد. ما باید نگاهی انتقادی به روشهای رمزگذاری فعلی خود بیندازیم، به خصوص زمانی که قدرت هوش مصنوعی شروع به افزایش بیشتر کند. Ransomware-as-a-service در نتیجه هوش مصنوعی دائما در حال بهبود است. سایر ویروس های رایانه ای نیز با آزمون و خطا به طور فزاینده ای هوشمند می شوند.
به عنوان مثال، یک ماشین خودران نرم افزاری روی چرخ است. به اینترنت متصل است و بنابراین می تواند هک شود (این قبلا اتفاق افتاده است). این بدان معنی است که یک مهره تنها در اتاق زیر شیروانی می تواند باعث ایجاد یک درام مانند آنچه در نیس باشد. من تصور میکنم نرمافزار هوشمندتری در دسترس باشد که میتواند برای هک یا حمله به سیستمها مورد استفاده قرار گیرد، و استفاده از این نرمافزار مانند بانکداری آنلاین در حال حاضر آسان خواهد بود.
به عنوان مثال، در بیمارستان ها نیز تجهیزات بیشتری به اینترنت متصل می شوند. اگر سیستمهای دیجیتال آنجا با به اصطلاح باجافزار هک میشد، چه میشد؟ این نرم افزاری است که قادر است در ازای دریافت باج، سیستم های کامپیوتری کامل را مسدود کند. تصور اینکه کسی در حال ایجاد اختلال گسترده در ضربان ساز ضربان ساز یا تهدید به انجام این کار وحشتناک است.
12. از دست دادن مهارت
ما به دلیل استفاده از کامپیوتر و گوشی های هوشمند مهارت های انسانی بیشتری را از دست می دهیم. آیا این حیف نیست؟ گاهی هست و گاهی نه. نرم افزار هوشمند زندگی ما را آسان تر می کند و منجر به کاهش خستگی می شود. اما آیا به ریسک خطرات هوش مصنوعی می ارزد؟
در تعداد کارهای کسل کننده ای که باید انجام دهیم – مثال هایی مانند پیمایش، نوشتن با دست، حساب ذهنی، به خاطر سپردن شماره تلفن، توانایی پیش بینی باران با نگاه کردن به آسمان و غیره است. فوراً از اهمیت حیاتی برخوردار نیست. ما مهارت های خود را در زندگی روزمره از دست می دهیم و آنها را به فناوری واگذار می کنیم. این برای قرن ها ادامه داشته است. به عنوان مثال، تقریباً هیچ کس دیگر نمی داند چگونه با دست آتش درست کند. به نظر من، مهم است که در این مورد تعجب کنیم: آیا ما در این سناریو بیش از حد به فناوری جدید وابسته نیستیم؟ در غیاب فناوری دیجیتالی که ما را احاطه کرده است، چقدر می خواهیم درمانده باشیم؟
نتیجه
در کارمان، سیستمهای رایانهای هوشمندی که میتوانند احساسات و حالات ذهنی اشخاص ثالث را بخوانند، به طور فزایندهای به ما کمک میکنند. به عنوان مثال، در حالی که آزمایشها در سوپرمارکتهای آمریکا انجام میشود، در حال حاضر در خدمات مشتری نیز چنین است. ما تا چه اندازه مهارت انجام این مشاهدات و آموزش آنتن های خود را از دست می دهیم؟. آیا در نهایت در خواندن همنوعان خود در یک مکالمه فیزیکی مهارت کمتری خواهیم داشت؟
البته تا حدودی این مورد وجود دارد. زیرا ما به طور فزاینده ای از گوشی هوشمند خود در ارتباطات خود استفاده می کنیم. آیا این باعث شده است که در خواندن شریک گفتگوی خود در یک مکالمه رو در رو کمتر مهارت داشته باشیم؟. به طور خلاصه، کدام یک از مهارت های خود را چه از نظر عملی و چه از نظر احساسی می خواهیم به سیستم های کامپیوتری هوشمند بسپاریم؟. آیا توجه، صمیمیت، عشق، تمرکز، تحمل ناامیدی و همدلی جنبههایی از زندگیمان هستند که مایل هستیم تا حد زیادی توسط فناوری تسخیر کنیم؟.
از این نظر، هوش مصنوعی یک شمشیر دولبه به عنوان یک پیشرفت فناوری است: هم از نظر پیامدهای بالقوه مثبت و هم از نظر پیامدهای بالقوه منفی، تیغ تیز است.