مویس ناوون، مدرس اخلاق فناوری در دانشگاه بن گوریون نقب در بیرشبا، اسرائیل، میگوید: «شما آن را تا آخر پیش میبرید». ناوون خاطرنشان می کند که تلاش ها برای ایجاد هوشیاری در هوش مصنوعی چندین دهه عمیق است، و علیرغم افکار Lemoine و پروازهای تخیلی من، ما به کامپیوترهایی با احساسات واقعی نزدیک نیستیم. او می گوید: «ماشین اگر نتواند درد و لذت را احساس کند، رحمت ما را طلب نمی کند. بنابراین، از نظر اخلاقی، لازم نیست نگران احساسات ماشین باشیم، اما ناوون میگوید رفتار ما نسبت به اشیاء انساننما میتواند بعداً در رفتار ما نسبت به موجودات زنده منعکس شود. او می گوید: «یکی از دوستان من به تازگی یک الکسا خریده است. “او از من پرسید که آیا باید به آن “لطفا” بگوید یا خیر. “
در اوایل ماه ژوئن، بلیک لمواین، مهندس گوگل که بر روی هوش مصنوعی کار میکند، با ادعای اینکه مدل زبانی این شرکت برای برنامههای گفتگو (LaMDA) خودآگاه است، خبرساز شد. Lemoine متن مکالمه خود را با LaMDA به اشتراک گذاشت که به گفته او ثابت کنید که روح دارد و باید به عنوان یک همکار رفتار کرد تا یک ابزار. مهندسان دیگر مانند من متقاعد نشدند. من رونوشت ها را خواندم. هوش مصنوعی در یک مهمانی دانشگاهی مانند یک سنگربان آزاردهنده صحبت می کند، و من مطمئن هستم که این افراد فاقد هرگونه خودآگاهی هستند. با این حال، تفسیر لموئین قابل درک است. اگر چیزی از امیدها و رویاهایش صحبت می کند، پس گفتن اینکه هیچ ندارد، بی احساس به نظر می رسد.