خانه الفبای بورس گذری بر مرزهای علم مالی گذری بر مرزهای علم مالی – قسمت چهاردهم
گذری بر مرزهای علم مالی – قسمت چهاردهم

گذری بر مرزهای علم مالی – قسمت چهاردهم


مقاله منتخب برای بررسی در این بخش، اولین مقاله از اولین شماره مجله مالی۱ در سال ۲۰۲۲ است. عنوان این مقاله در نگاه اول کمی عجیب به نظر می‌رسد: “نابرابری پیش‌بینی‌پذیری؟ اثر یادگیری ماشین بر بازارهای اعتباری۲ “. سؤالی که برای من در ابتدای مشاهده این عنوان ایجاد شد، این بود که چرا پیش‌بینی‌پذیری می‌تواند موجب نابرابری شود. با مطالعه چکیده آن، موضوع کمی جالب‌تر شد، زیرا منظور نویسندگان این مقاله، دقیقاً‌ نابرابری‌هایی مانند نابرابری نژادی یا رنگین‌پوستی و … بود. مطالعه بیشتر مقاله، من را به یاد فیلمی علمی-‌تخیلی با عنوان گاتاکا۳ انداخت. در این فیلم، پس از تولد هر نوزاد و با بررسی خصایص ژنتیکی و … وی با استفاده از فناوری‌های پیشرفته، توانایی‌ها و به‌طور کلی آینده وی پیش‌بینی می‌شد و درصورتی‌که ضعفی در آن نوزاد وجود داشت، پیش‌بینی‌ها آینده روشنی برای او ارائه نمی‌کرد و در نتیجه، شغل‌هایی مانند خدمات نظافتی برای وی در نظر گرفته می‌شد، به‌طوری‌که فرصت پیشرفت از همان ابتدا از این فرد سلب می‌گردید. موضوع مقاله نیز دقیقاً همین است. فناوری‌های پیشرفته آماری مانند یادگیری ماشینی، قادر به پیش‌بینی دقیق‌تر عملکرد اشخاص (مانند عملکرد اعتباری آن‌ها در این مقاله) شده و در نتیجه، احتمال اعطای اعتبار مناسب به آن‌ها کم می‌شود و درست مانند فیلم یادشده، فرصت‌های رشد و توسعه آن‌ها نسبت به دیگر افراد کاهش می‌یابد. به عبارتی، محققین در این مقاله ضمن تأیید قدرت بالای مدل‌های یادگیری ماشینی، خطرات احتمالی استفاده از آن‌ها را نیز به زیبایی گوشزد می‌کنند. این رویکرد، دلیل اصلی انتخاب این مقاله از بین مقالات متعدد و نوآورانه چاپ‌شده در یک ماه اخیر است. نویسندگان این مقاله به زیبایی بحث مسئولیت اجتماعی را بر هدف کلاسیک مالی یعنی به حداکثر رساندن ثروت سهامداران، ارجح دانسته‌اند.

شرح مقاله:
نویسندگان این مقاله در ابتدا ضمن تأیید قدرت مدل‌های یادگیری ماشینی نسبت به مدل‌های کلاسیک آماری، به استفاده روزافزون از این مدل‌ها در دنیای کسب‌و‌کار و مالی اشاره دارند و سرعت بالای رشد این مدل‌ها را دلیلی برای عدم توجه به ریسک‌های احتمالی استفاده کورکورانه از آن‌ها می‌دانند. این پژوهشگران با استفاده از داده‌های مربوط به بازار اعتبارات بخش مسکن، شواهد قابل‌توجهی در خصوص یکی از این ریسک‌ها ارائه می‌کنند.
ایده اصلی آن‌ها در مقاله این است که با پیشرفت و پیچیده‌تر شدن و افزایش دقت مدل‌های پیش‌بینی (یا به زبان دقیق‌تر، کاهش میانگین مجذور خطای آن‌ها)، تفاوت بین‌گروهی و درون‌گروهی پیش‌بینی‌ها نیز نسبت به مدل‌های ساده بیشتر خواهد شد. در نتیجه برای داده‌های مربوط به اعتبارات، برخی گیرندگان تسهیلات کم‌ریسک‌تر تلقی شده (که از آن‌ها به‌عنوان برندگان یاد می‌شود) و برخی دیگر عموماً پرریسک تصور می‌شوند (که به آن‌ها بازندگان می‌گویند) و این گروه‌بندی با اطلاعات جامعه‌شناختی افراد مانند رنگ پوست، نژاد، تعلق به اقلیت‌های قومی، جنسیت، سطح درآمدی و … هم‌راستا شده و موجب عمیق‌تر شدن شکاف‌های اجتماعی می‌گردد.
این محققین بر اساس مطالعه خود روی داده‌های ۱۰ میلیون اعتبار بخش مسکن آمریکا معتقدند با پیشرفت مدل‌های پیش‌بینی، مثلاً وقتی به‌جای یک مقایسه ساده با میانگین، از یک مدل خطی استفاده می‌کنیم یا مدل خطی را به مدل درجه دو محدب تغییر می‌دهیم، یا از مدل رگرسیون لجستیک به سراغ مدل پیچیده‌ای مانند جنگل تصادفی می‌رویم، شکاف بین گروه‌های برنده و بازنده بیشتر می‌شود و احتمال اخذ اعتبار مناسب برای گروه‌های برنده (مثلاً سفیدپوستان غیراسپانیایی) افزایش و به همین صورت، این احتمال برای اشخاص بازنده (مانند سیاه‌پوستان و سفیدپوستان اسپانیایی‌تبار) کاهش می‌یابد.
از دیگر یافته‌های این پژوهشگران این است که حتی اگر اعتباردهندگان به دلایل اجتماعی و قانونی، مجاز به استفاده از متغیرهایی مانند نژاد، رنگ پوست و جنسیت در مدل‌های خود نباشند و تنها متغیرهایی مانند سطح درآمد و امتیاز اعتباری را در مدل خود وارد نمایند، مدل‌های پیشرفته قادرند متغیرهای واردنشده (یا پنهان از مدل) را نیز کشف و با تقسیم متغیرهای واردشده به یک یا چند گروه، به‌طور غیرمستقیم اثر متغیرهای پنهان را نیز در پیش‌بینی خود دخیل نمایند و مجدداً همان اثرات منفی بر شکاف اجتماعی را به همراه داشته باشند. لذا قوانین و مقررات این‌چنینی که استفاده از متغیرهای یاد‌شده را ممنوع می‌کنند، چندان مؤثر نخواهند بود.
نویسندگان مقاله در پایان، پژوهش خود را تنها نقطه شروعی برای بررسی بیشتر موضوعاتی از این دست دانسته و پیشنهاد می‌کنند که این موضوع در دیگر بازارهای مالی و کالایی نیز مورد کنکاش قرار گیرد.

دیدگاه خود را بیان کنید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *