خلاصه این خبر را در چی تو وب میخوانید . تحقیق جدیدی از OpenAI نشان می‌دهد که مدل‌های هوش مصنوعی قادر به «توطئه‌چینی» یا «دروغگویی عامدانه» برای رسیدن به اهدافشان هستند. این عمل، پدیده‌ای خطرناک است که حتی با آموزش به هوش مصنوعی کار را دشوارتر می‌کند اما محققان برای آن یک راهکار پیدا کردند. | تحقیق جدیدی از OpenAI نشان می‌دهد که مدل‌های هوش مصنوعی قادر به «توطئه‌چینی» یا «دروغگویی عامدانه» برای رسیدن به اهدافشان هستند. این عمل، پدیده‌ای خطرناک است که حتی با آموزش به هوش مصنوعی کار را دشوارتر می‌کند اما محققان برای آن یک راهکار پیدا کردند.