اخبار

چرا واقعیت‌ها نمی‌توانند نظر ما را تغییر دهند؟

 

چرا واقعیت‌ها نمی‌توانند نظر ما را تغییر دهند؟

ترجمه کیارش عظیم زاده

در سال ۱۹۷۵ در استنفورد مطالعه‌ای درباره‌ی یادداشت‌های قبل از خودکشی انجام شد. در این مطالعه، چند جفت یادداشت به شرکت‌کنندگان داده شد که هر جفت یادداشت، تشکیل شده بود از یک یادداشت واقعی که نویسنده‌ی آن بعد از نوشتنش، خودکشی کرده بود، و یک یادداشت جعلی که کاملاً ساختگی بود و اصلاً کسی آن را ننوشته بود. شرکت‌کنندگان باید تشخیص می‌دادند که کدام یادداشت واقعی‌ست و کدام جعلی. پاسخ‌های شرکت‌کنندگان نشان داد که تقریباً همه مانند هم عمل کرده‌اند و تفاوت معنی‌داری در موفقیتشان در آزمون وجود نداشته است، اما به گروهی از شرکت‌کنندگان (گروه A) گفتند که توانسته‌اند از ۲۵ جفت یادداشت، در ۲۴ مورد، یادداشت واقعی را درست تشخیص بدهند! و به گروه دیگر (گروه B) گفتند که عملکرد خوبی نداشته‌اند و کمتر از ۱۰ مورد را درست تشخیص داده‌اند. همانطور که گفتیم، شرکت‌کنندگان، همه تقریباً مثل هم عمل کرده بودند، و تفاوت معنی‌داری در تعداد تشخیص‌هایشان وجود نداشت و نتیجه‌هایی که به آن‌ها اعلام شده بود، دروغ بود (در آخر می‌فهمیم که چرا این دروغ را به آن‌ها گفتند). در قدم بعد، قرار شد به شرکت‌کنندگان بگویند که نتیجه‌ها دروغ بوده و همه شبیه هم بوده‌اند و هدف مطالعه این بوده که واکنششان را ببینند! البته این هم یک فریب دیگر بود، چون هدف مطالعه اصلاً این نبود.  در آخر شرکت‌کنندگان بعد از این که فهمیدند نتیجه‌ها دروغ بوده، باید حدس می‌زدند که واقعاً در این آزمون چقدر خوب عمل کرده‌اند و به نظر خودشان چند یادداشت واقعی را درست تشخیص داده‌اند. نتیجه خیلی جالب بود. با این که شرکت‌کنندگان فهمیده بودند که نتیجه‌های اولی دروغ بوده، گروه A، حدس‌شان این بود که بهتر از میانگین عمل کرده‌اند، و گروه B فکر می‌کردند که بدتر از میانگین عمل کرده‌اند! این که حدس‌های این دو گروه باهم تفاوت داشت، هیچ پایه‌ی منطقی نداشت چون هر دو می‌دانستند که نتیجه‌هایی که اول مطالعه به آن‌ها اعلام شده، کاملاً دروغ بوده است. در واقع هدف آن نتیجه‌های دروغی که در ابتدا به آن‌ها گفته شد، همین بود که بفهمند اثر آن -حتی بعد از این که می‌فهمند دروغ است- روی فکرشان چیست. اگر بخواهیم نتیجه‌ی مطالعه را در یک جمله بگوییم، این است که «وقتی یک عقیده شکل گرفت، اثرش به این راحتی از بین نمی‌رود.» چند سال بعد، مطالعه‌ی دیگری شبیه به مطالعه‌ی ۱۹۷۵ انجام شد. در این مطالعه، باز هم شرکت‌کنندگان دو گروه شدند. گروه A، و گروه B. به هر دو گروه، اطلاعاتی درباره‌ی یک آتش‌نشان دادند. در اطلاعاتی که به گروه A دادند، آمده بود که «فرانک، یک آتش‌نشان موفق و نمونه است، که در موقعیت‌های ریسکی، همیشه احتیاط می‌کند و سراغِ گزینه‌های امن‎‌تر می‌رود». در مقابل، اطلاعاتی که به گروه B دادند، این بود که «فرانک، آتش‌نشان بی‌نظمی‌ست که همیشه توبیخ می‌شود. او در موقعیت‌های ریسکی، همیشه احتیاط می‌کند». در واقع در هر دو اطلاعاتی که به گروه‌ها داده شده بود، فرانک گزینه‌های امن را در موقعیت‌های ریسکی انتخاب می‌کرد، و تفاوت اطلاعات در این بود که فرانک در یکی (اطلاعات گروه A)، آتش‌نشان منظم و باانضباطی بود، و در دیگری (گروه B)، بی‌نظم و شلخته! این بار هم بعد از این مرحله، به شرکت‌کنندگان گفتند که اطلاعاتی که به آن‌ها داده شده کاملاً دروغ بوده و اصلاً فرانکی در کار نیست! دلیل این کار هم مانند مطالعه‌ی قبل این بود که بفهمند آیا با این که شرکت‌کنندگان می‌فهمند اطلاعات دروغ است، این اطلاعات روی فکرهای بعدیشان اثر می‌گذارد یا خیر. بعد از این، از شرکت‌کنندگان خواستند که به یک پرسش پاسخ بدهند: «یک آتش‌نشان، در موقعیت‌های ریسکی باید چه کاری کند؟ گزینه‌های ریسکی را انتخاب کند، یا سراغِ گزینه‌های امن برود؟» جواب دو گروه جالب بود. گروه A، چون در اطلاعاتشان آمده بود که فرانک آدمِ نمونه‌ای‌ست، نظرشان شبیه او بود، و گفتند که باید احتیاط کرد. اما گروه B، چون فکر می‌کردند فرانک آدم بی‌نظم و شلخته‌ای‌ست، نظرشان مخالف نظر او بود، و گفتند باید در موقعیت‌های ریسکی، خطر کرد! جالب اینجاست که این دو گروه می‌دانستند که اطلاعات دروغ بوده، و اصلاً فرانکی وجود ندارد، ولی باز هم این اطلاعات و ذهنیت قبلیشان درباره‌ی فرانک، روی پاسخ‌هایشان اثر گذاشت. در یک جمله، نتیجه‌ی این آزمایش این بود که، «مردم حتی وقتی می‌فهمند اطلاعاتشان غلط بوده، باز هم برایشان سخت است که باورهای قبلی‌شان را تغییر بدهند و اصلاح کنند». این دو مطالعه که خواندیم، سر و صدای زیادی به پا کرد. این که مردم نمی‌توانند (قطعاً همیشه اینطور نیست) درست فکر کنند، و استدلال کنند، نتیجه‌ی خوشآیندی نبود و همه را متعجب کرد. هر چند با مطالعه‌های بیشتر بعدی، و تکرار نتیجه‌ی این دو مطالعه، تقریباً دیگر عادی شد و تعجب‌برانگیز نبود! هر کس که این مطالعه‌ها را دنبال کرده باشد، می‌داند که مردمی که منطقی به نظر می‌رسند، کاملاً غیرمنطقی هستند (باز هم قطعاً همیشه اینطور نیست). اما جدای از این، این نتیجه‌ها، پرسشی را در ذهن ما ایجاد می‌کند؛ «ما چرا اینطوری هستیم؟».  در کتاب “The Enigma of Reason”، که به تازگی منتشر شده است، هوگو مرسیه و دن اسپربر سعی کردند به این پرسش پاسخ بدهند. این دو دانشمند علوم شناختی، اشاره می‌کنند که استدلال کردن و منطق، یک رفتار تکامل‌یافته مانند راه رفتن روی دو پاست، و باید با این دید به آن نگاه کرد. استدلال مرسیه و اسپربر این است که “بزرگترین برتری انسان، نسبت به گونه‌های دیگر، «همکاری کردن» است. همکاری معمولاً به سختی به وجود می‌آید، و به سختی باید آن را حفظ کرد. همین همکاری بین انسان‌هاست، که استدلال را به وجود آورده است. در واقع تواناییِ استدلال، برای این به وجود نیامده که به ما کمک کند مسئله‌های انتزاعی را حل کنیم، بلکه بیشتر برای این است که بتوانیم راه حلی برای مشکلات کار گروهی پیدا کنیم.” مرسیه و اسپربر می‌نویسند “استدلال کردن، یک انطباق است که انسان‌ها آن را در متنِ زندگیِ اجتماعی و برای حل مشکلات زندگی اجتماعی به دست آورده‌اند.” بگذارید با یک مثال پیش برویم. مردم تمایل دارند با اطلاعاتی مواجه شوند که باورهایشان را تأیید می‌کند، و اطلاعاتی را که با آن باورها مخالف است، رد می‌کنند (باز هم قطعاً همیشه اینطور نیست). این پدیده، سوگیری تأییدی نام دارد. بینِ تمامِ خطاهای فکری، سوگیری تأییدی بیشتر از همه مطالعه شده است. یکی از این مطالعه‌ها، باز در استنفورد بوده است. در این مطالعه، دو گروه از دانشجویان حضور داشتند که نظرشان درباره‌ی مجازات اعدام، مخالف هم بود. گروهی می‌گفتند که این مجازات اثری روی کم شدن جرم و جنایت ندارد، و در مقابل، گروه دیگر، طرفدار مجازات اعدام بودند. شرکت‌کنندگان، باید نظرشان را درباره‌ی دو بسته‌ی آماری می‌گفتند. در این دو بسته‌‍، اطلاعات آماری از اثر مجازات اعدام، روی میزان جرم و جنایت داده شده بود. یک بسته می‌گفت که اعدام، جرم و جنایت را کم می‌کند، و بسته‌ی دیگر، اثر اعدام را زیر سؤال می‌برد. البته این بسته‌ها ساختگی بودند و آماری که در آن‌ها داده شده بود به شکلی طراحی شده بود که کاملاً منطقی و قابل مقایسه باشند (در واقع، هر بسته، به یک اندازه قدرت آماری داشت).  نتیجه‌ی مطالعه، تأییدی بود بر اثرِ سوگیری تأییدی روی استدلال‌های ما! دانشجویانی که از قبل مخالف اعدام بودند، و اثر اعدام روی میزان جرم و جنایت را قبول نداشتند، بسته‌ی دوم اطلاعاتی را (که نظرشان را تأیید می‌کرد) کاملاً متقاعدکننده و بسته‌ی دیگر را بی‌اعتبار دانستند. در مقابل، گروه دیگر شرکت‌کنندگان، که موافق مجازات اعدام بودند، بسته‌ی اول آماری را -که می‌گفت مجازات اعدام، مفید است- معتبر دانستند و بسته‌ی دوم را بی‌اعتبار! بعد از این مرحله، دوباره از همه‌ی شرکت‌کنندگان، نظرشان درباره‌ی مجازات اعدام را پرسیدند. آن‌هایی که طرفدار اعدام بودند، با این که آمار دو بسته کاملاً یکسان بود، بیشتر از قبل از مجازات اعدام طرفداری کردند، و گروه دیگر، که مخالف اعدام بودند، مخالفتشان بیشتر شده بود! این یک نمونه از سوگیری تأییدی بود. در این آزمایش دیدیم که مردم چطور آماری که باورهایشان را تأیید می‌کند، قبول می‌کنند و آمارهای مخالفشان را نادیده می‌گیرند. اگر ماشینِ استدلال کردنِ انسان برای این طراحی شده، که گزاره‌های واقعی و راست تولید کند، سوگیری تأییدی بزرگ‌ترین نقصی‌ست که می‌شود برای چنین دستگاهی تصور کرد (=یعنی از بدترین نقص‌های ممکن است که یک ماشینِ استدلال می‌تواند داشته باشد)! یک موش را تصور کنید که مانند ما فکر می‌کند (یعنی استدلال می‌کند و سوگیری تأییدی هم دارد). اگر این موش باور داشته باشد که گربه‌ای در محیط نیست، و هر مدرکی، مخالف باورش را نادیده بگیرد، به زودی شکار گربه می‌شود. سوگیری تأییدی، به قدری در استدلال‌های ما خطا ایجاد می‌کند که باید –همانطور که موش حذف شد- در انتخاب طبیعی حذف می‌شد. اما ما با وجود همین سوگیری، باقی مانده‌ایم و این نشان می‌دهد که سوگیری تأییدی، حتماً فایده‌ای دارد. مرسیه و اسپربر فایده‌ی آن را در ارتباط با زندگی جمعی ما می‌دانند. مرسیه و اسپربر کلمه‌ی «سوگیری طرفِ من» را ترجیح می‌دهند. به نظر آن‌ها، انسان‌ها زودباور نیستند و وقتی با استدلال‌های فرد دیگری روبرو می‌شوند می‌توانند نقاط ضعف آن را شناسایی کنند. کاری که البته تقریباً هیچ‌وقت برای خودشان انجام نمی‌دهند. مطالعه‌ی اخیر مرسیه و همکاران اروپایی‌اش، این تناقض را (که نقاط ضعف استدلال بقیه را می‌فهمیم ولی نقاط ضعف استدلال خودمان را متوجه نمی‌شویم) به خوبی نشان می‌دهد. شرکت‌کنندگان باید مشکلات یک سری استدلال را شناسایی می‌کردند. بعد از آن، آن‌ها باید نقد خودشان را در مورد آن استدلال توضیح می‌دادند، و در نهایت، یک بار فرصت داشتند که اگر در جوابشان خطایی وجود دارد، آن را اصلاح کنند. بیشترِ آن‌ها، نقد اولی‌شان را کاملاً قبول داشتند و آن را اصلاح نکردند، و فقط کمتر از ۱۵ درصدشان، نظرشان را تغییر دادند. در مرحله‌ی سوم، دوباره یک سری از استدلال‌های مشکل‌دارِ مرحله‌ی اول را به هر شرکت‌کننده نشان دادند. در این مرحله، همراه با خودِ استدلال، نقد هر شرکت‌کننده به اضافه‌ی نقد یکی دیگر از شرکت‌کنندگان نیز به آن‌ها ارائه شد. آن‌ها فرصت داشتند که این بار هم، نقد خودشان را اصلاح کنند. اما یک فریب اینجا وجود داشت! نقدی که به عنوان نقد یکی دیگر از شرکت‌کننده‌ها به آن‌ها نشان داده شده بود، نقد خودشان بود، با کمی تغییر! تقریباً نیمی از آن‌ها متوجه این موضوع شدند و برای همین از مطالعه خارج شدند. از نیم دیگر شرکت‌کنندگان که متوجه این موضوع نشدند، ۶۰%شان نظرات شرکت‌کننده‌ی دیگر را (که در واقع نظرات خودشان بود، ولی با کمی تغییر)، نقد کردند با این که قبلاً همین نظرات را خودشان داده بودند، و حتی در فرصتی که به آن‌ها داده شده بود، اصلاحش نکرده بودند! این که آدم‌ها تمایل دارند دیگران را نقد کنند، ولی خودشان را نه، بازتابی‌ست از این که استدلال کردن چرا تکامل پیدا کرده است. اجداد ما در گروه‌های کوچکی باهم زندگی می‌کردند. وقتی که کسی به شکار می‌رفت باید مطمئن می‌شد که او تنها کسی نیست که زندگیش را به خطر انداخته است، و بقیه از این وضعیت سوء استفاده نمی‌کنند. استدلال کردن، برای این بود که هیچ کس در گروه، سرش کلاه نرود و همه بتوانند از این زندگی گروهی سود ببرند! اما داستان همین جا تمام نمی‌شود. این توانایی، همانطور که گفته شد، برای موقعیت‌هایی مثل شکار و در کل موقعیت‌های ساده شکل گرفته بود، و اجداد ما در میان مشکلات بسیاری که داشتند، هیچ وقت نگران اثر مجازات اعدام روی جرم و جنایت، یا ایده‌آل‌های یک آتش‌نشان نبودند! آن‌ها هرگز با مطالعه‌های جعلی، اخبار دروغ، و توییتر که امروز ما با آن‌ها سر و کار داریم، روبرو نمی‌شدند؛ و برای همین، جای تعجب نیست که امروز، استدلال –که برای شکارِ گروهی (!) به وجود آمده بود-، در بیشترِ موقعیت‌ها شکست بخورد. همانطور که مرسیه و اسپربر می‌گویند، این یکی از جاهایی‌ست که طبیعت، آنقدر سریع تغییر کرده، که انتخاب طبیعی نتوانسته خودش را برساند!  استیون اسلومن، و فیلیپ فرنبچ دو دانشمند دیگری هستند که باور دارند که زندگی اجتماعی انسان‌ها می‌تواند نشان بدهد که استدلال چطوری کار می‌کند. هر کسی در ایالات متحده، و در واقع، هر کسی در جهان توسعه‌یافته با توالت آشنایی دارد. هر توالت فرنگی که سیفون داشته باشد، یک محفظه‌ی سرامیکی دارد که پر از آب است. وقتی که دسته‌ی آن را فشار می‌دهیم، یا کلید آن را ‌می‌زنیم، آب و هر چیزی که در توالت است، وارد لوله‌ی زیر توالت می‌شود و از آن جا به سیستم فاضلاب می‌رود. اما واقعاً چطور این اتفاق می‌افتد؟ در یک مطالعه در ییل، از دانشجوهای فارغ‌التحصیل خواستند که به دانش‌شان از ساز و کار وسایل روزمره شامل سیفون توالت، زیپ شلوار، و قفل درب، امتیاز بدهند. دانشجوها بعد از این که امتیاز دادند، باید طرز کار دستگاه را با جزئیات کامل –هر چقدر که بلد بودند- توضیح می‌دادند، و باز دوباره به خودشان امتیاز می‌دادند. وقتی که دانشجوها، سعی کردند کار دستگاه‌ها را توضیح بدهند، تازه فهمیدند که انگار خیلی هم بلد نیستند و امتیازی که بعد از آن به خودشان دادند، پایین‌تر از امتیاز اولی بود. اسلومن و فرنبچ به این پدیده، «توهم عمق اطلاعات» می‌گویند. مردم فکر می‌کنند بیشتر از آن چیزی که واقعاً می‌دانند، می‌دانند! چیزی که این توهم را در مردم به وجود می‌آورد، «دانش و سوادِ بقیه‌ی مردم» است؛ مثلاً در مورد توالت، فرد دیگری آن را طراحی کرده، و من به راحتی می‌توانم -بدون این که بلد باشم آن را بسازم- از آن استفاده کنم. این چیزی‌ست که ما در آن خیلی ماهریم (این که بتوانیم بدونِ این که چیزی را بفهمیم، از آن استفاده کنیم)! ما آدم‌ها از وقتی که فهمیدیم چطوری گروهی شکار کنیم، وابسته به توانایی‌ها و دانش یکدیگر شدیم، و این اتفاقی‌ست که احتمالاً یک نقطه‌ی کلیدی در تکامل ما بوده است. هر چه که ما بیشتر باهم همکاری می‌کنیم و این کار گروهی، پیچیده‌تر می‌شود، سخت‌تر است که بفهمیم کجا دانش ما تمام می‌شود، و دانش دیگری کار را ادامه می‌دهد! این که ما می‌توانیم کارها را به شکلی بین هم تقسیم کنیم، که کاملاً یک‌دست و هماهنگ به نظر برسد، باعث می‌شود که مرز مشخصی بین ایده‌ها و دانشِ یک نفر، با ایده‌ها و دانش افراد دیگر گروه، وجود نداشته باشد، و این مرز پشتِ این همکاری و تقسیم کار مخفی شود. البته این بی‌مرزی برای پیشرفت کردن، لازم است! طبیعی است که وقتی وسیله‌های جدید اختراع می‌شوند، مردم باید ندانستنِ چیزهای جدیدی را نادیده بگیرند؛ مثلاً وقتی تلفن همراه اختراع شد، ما نمی‌دانستیم که این تلفن چطور کار می‌کرد، ولی از آن استفاده می‌کردیم، و ندانستن ساز و کارش را نادیده می‌گرفتیم! اما چرا این نادیده گرفتن برای پیشرفت کردن لازم است؟ فرض کنید که هیچ کس قبل از دانستن اصول کار کردن با فلزات، از چاقو استفاده نمی‌کرد. یعنی برای این که از چاقو استفاده کند، قبلش می‌رفت یک دوره، اصول کار کردن با فلزها را یاد می‌گرفت. خوب، در این حالت، آیا عصر برنز (Bronze Age)، این قدر پیشرفت می‌کرد؟ آیا زمان زیادی طول نمی‌کشید که همه قبل از استفاده از چاقو، بروند کار کردن با فلزات را بگیرند؟ پس این بی‌مرزی، و استفاده کردن از دانش دیگران در کارها، به ما کمک می‌کند که بدونِ این که «بدانیم»، پیشرفت کنیم. اما بی‌مرزی یک جا برای ما مشکل درست می‌کند، و آن وقتی‌ست که به سیاست کشیده می‌شود. این که من بدونِ این که طرز کار سیفون توالت را بدانم، از آن استفاده می‌کنم، یک چیز است، و این که بدون این که در مورد ممنوعیت مهاجرت چیزی بدانم، از آن طرفداری کنم، چیز دیگری‌ست! کمی بعد از این که بین روسیه و اوکراین درباره‌ی شبه جزیره‌ی کریمه اختلاف پیش آمد، یک مطالعه در این مورد انجام شد. از شرکت‌کنندگان پرسیدند که به نظرشان، آمریکا باید چه واکنشی به این قضیه نشان بدهد، و بعد، از آن‌ها خواستند که اوکراین را روی نقشه مشخص کنند. بعد از مقایسه‌ی پاسخ‌ها معلوم شد که هر چقدر یک نفر اطلاعات کمتری درباره‌ی جغرافیای اوکراین داشته، بیشتر از بقیه از دخالت نظامی آمریکا در اوکراین طرفداری کرده است (شرکت‌کنندگان اطلاعاتشان درباره‌ی اوکراین، آنقدر کم بود، که حدسِ میانه –وسط‌ترین حدس-، ۱۸ هزار مایل با جای واقعی اوکراین فاصله داشت)! اسلومن و فرنبچ نتیجه‌ی این مطالعه را اینطور تفسیر می‌کنند: “اطمینان داشتن در مورد یک مسئله، از دانش کافی در آن مسئله به دست نمی‌آید و ربطی به اطلاعات فرد از آن موضوع ندارد!” و اینجاست که تکیه‌ی ما به دانش دیگران، مشکل را دوچندان می‌کند. اگر موضعی که مثلاً شما در مورد طرح تحول سلامت دارید، بی‌اساس باشد، و من هم روی موضع شما تکیه کنم، موضع من هم بی‌اساس می‌شود. بعد، وقتی که فرد دیگری هم با من صحبت کند، و او هم حرف من را قبول کند، موضع او هم بی‌اساس می‌شود! اینجا، هر سه نفر ما بیشتر از وقتی که تنها بودیم، موضعمان را قبول داریم و روی آن می‌ایستیم در حالی که اطلاعات کافی برای این مسئله نداریم و فقط روی دانش ناقص یکدیگر تکیه کرده‌ایم. “در این حالت است که اجتماعی از دانش‌ها –دانشِ من، شما و بقیه- خطرناک می‌شود”. اسلومن و فرنبچ در یک مطالعه، از شرکت‌کنندگان خواستند که نظرشان را درباره‌ی پرسش روبرو بگویند: بهتر است که همه به یک شکل مالیات بدهند، یا هر کس بر اساس جایگاه و ارزش اجتماعی‌اش مالیات بدهد (مثلاً معلمان چون اهمیت بیشتری دارند، مالیات کمتری بدهند)؟ بعد از آن، از شرکت‌کنندگان خواستند که به اطمینانشان از جوابی که داده‌اند یک نمره بدهند! سپس، آن‌ها باید تا جایی که می‌توانستند، اثرات به‌کارگیری پاسخشان در جامعه را توضیح می‌دادند (یعنی توضیح بدهند که اگر سیاستی که پیشنهاد کرده‌اند را در پیش بگیریم، چه اثراتی دارد). در این مرحله، که هر کس باید اثرات نظرش را توضیح می‌داد، بیشترِ شرکت‌کنندگان به مشکل برخوردند و نتوانستند دقیقاً بگویند که چه می‌شود! وقتی که بعد از آن، از آن‌ها خواسته شد که دوباره به اطمینانشان امتیاز بدهند، امتیازهایی که به خودشان دادند، کمتر از بار اول بود. اسلومن و فرنبچ می‌گویند که اگر ما وقت کمتری را برای اظهار فضل (!) بگذاریم، و بیشتر به پیچیدگی‌ها و عواقب ایده‌های سیاسی‌مان فکر کنیم، می‌توانیم بفهمیم که هر فکرمان چقدر منطقی، و یا بی‌اساس است، و دیدگاه‌هایمان را متعادل‌تر می‌کنیم و این، احتمالاً، تنها شکلی از فکر کردن است که می‌تواند اثرِ «توهم عمق اطلاعات» را کمتر کند. بد نیست اینجا کمی از «علم تجربی» صحبت کنیم. می‌شود به علم تجربی به چشم یک دستگاه نگاه کرد، که تمایلات طبیعی مردم –مانند سوگیری تأییدی که اثرش را کمی قبل خواندیم- را شناسایی، و تصحیح می‌کند. در یک آزمایشگاه معتبر، جایی برای سوگیری تأییدی نیست. نتیجه‌ها باید در آزمایشگاه‌های دیگر -که تمایلی برای تأیید کارهای دیگران ندارند و سخت‌گیر هستند!-، تکرارپذیر باشند. این، نشان می‌دهد که چرا علم تجربی تا این اندازه، موفق بوده است؛ چون تمایلی برای تأیید بعضی از آمارها، و رد کردن بقیه‌شان، ندارد! موقعیت‌های مختلفی بوده که یک موضوع، با مناقشه‌های سیاسی احاطه شده، اما در پایان، روش‌شناسی و علم پیروز شده است. علم پیش می‌رود، حتی وقتی که ما در جایمان مانده باشیم. جک گورمن و دخترش سارا گورمن، در کتاب “Denying to the Grave: Why We Ignore the Facts That Will Save Us”، درباره‌ی فاصله‌ی حرف‌هایی که علم به ما می‌زند، و حرف‌هایی که خودمان به خودمان می‌زنیم، نوشته‌اند. تمرکز آن‌ها در این کتاب، روی باورهای همیشگی‌ای‌ست که هنوز ثابت نشده که غلط هستند، اما می‌توانند مهلک باشند!؛ یکی از این باورها، عقیده‌ی مردم به ضرر داشتن واکسن‌هاست! واضح است که چیزی که ضرر دارد را در واکسن استفاده نمی‌کنند. ایمن‌سازی یکی از پیروزی‌های پزشکی مدرن است! اما برای مخالفانش مهم نیست که چند دانشمند ثابت کرده‌اند که واکسن‌ها ایمن هستند؛ کسانی که مخالف واکسن‌اند، نظرشان با این چیزها تغییر نمی‌کند! این دو دانشمند در کتاب می‌گویند که این شکلِ فکر کردن، که به خودِ آن فرد آسیب می‌زند، حتماً باید در جایی به درد بخورد. در کتاب، صفحه‌های زیادی در مورد سوگیری تأییدی نوشته شده و این که شاید یک عنصر فیزیولوژیک برای آن وجود داشته باشد. آن‌ها به مقاله‌ای ارجاع داده‌اند که نشان می‌دهد، مردم وقتی با اطلاعاتی روبرو می‌شوند که باورهایشان را تأیید می‌کند، لذت بالایی –ترشح بالای دوپامین- را تجربه می‌کنند.  البته هدف این کتاب این نیست که فقط خطاهای فکری ما را دسته‌بندی کند؛ نویسنده‌ها به دنبال اصلاح خطاهای فکری هم هستند. آن‌ها می‌گویند حتماً باید راهی وجود داشته باشد که بشود مردم را متقاعد کرد که واکسن برای بچه‌ها خوب است. اما آن‌ها این جا با یک مشکل قدیمی روبرو می‌شوند. دادن اطلاعاتِ دقیق‌تر به مردم، به نظر بی‌فایده می‌رسد چون آن‌ها، اطلاعات جدید را هم نادیده می‌گیرند (سوگیری تأییدی). در عوض، کار کردن روی احساساتِ آن‌ها بیشتر جواب می‌دهد، که این، با هدف علم، در تضاد است. “چالشی که باقی می‌ماند این است که به چه شکل، تمایلاتی را که به باورهای علمی اشتباه منجر می‌شود، به مردم نشان بدهیم و آن‌ها را از وجودشان آگاه کنیم”. ۳ کتابی که خواندیم، همه قبل از انتخابات ماه نوامبر (انتخابات ریاست جمهوری ایالات متحده) نوشته شده بودند. این روزها، به نظر می‌رسد که کل کشور در یک آزمایش بزرگ روانشناسی هستند، که هیچ‌کس، یا شاید Steve Bannon آن را طراحی کرده است. در حالی که متأسفانه، نوشته‌ها امیدوارکننده نیستند، اما مغزهای متفکر باید راهی برای این وضعیت پیدا کنند! منبع: The New Yorker