এই বছর ফিজিক্সে নোবেল প্রাইজ পাইসেন জন হপফিল্ড আর জিওফ্রে হিনটন, কারণ তাঁদের এমন কিছু আবিষ্কার এবং কাজ ছিল যেগুলা এখনকার মেশিন লার্নিং এর ফাউন্ডেশন বানায়ে দিসে।
প্রথমে আমার ধান্দা লাগলো, মেশিন লার্নিং হইল কম্পিউটার সায়েন্সের শাখা, এটায় কাজ করলে ফিজিক্সে কেন নোবেল পাবে কেউ। এটা তো হার্ডওয়ার রিলেটেড কিছুও না, যদি সেটা হইত তাইলে কিছুটা রিলেটেবল হয়তো হইতো। কাহিনী টা আসলে কী?
হালকা একটু ঘাটার পরে যা বুঝলাম তাই সংক্ষেপে লেখি। উল্লেখ্য, আমার ফিজিক্সের অনেক হাই লেভেলের জিনিসই জানা নাই, অতএব ভুল হবে ধরে নিয়েই লিখতেসি।
১৯৪৩ সালে একজন নিউরোসায়েন্টিস্ট আর একজন লজিসিয়ান নিউরন কেমনে কাজ করে তা নিয়ে একটা পেপার লিখসিলেন। তাঁরা প্রস্তাব করসিলেন যে একটা নিউরনে যে ইনপুট সিগন্যালগুলা আসে, সেগুলার weighted sum দিয়ে আরেকটা বাইনারী সিগন্যাল তৈরি করা হয়, যেইটারে আউটপুট হিসাবে বের করে দেয় (চসে বন্ধুরা, পরিচিত লাগে নাকি?)। Weighted sum বলতে ধরা যায় x1 আর x2 দুইটা ইনপুট, এদের সাথে একটা করে weight গুণ করে এরপরে যোগ করে একটা রেজাল্ট বের করা, অনেকটা f(x) = w1*x1 + w2*x2 এর মত, যেখানে f(x) আউটপুট। এই আউটপুটই নিউরনের বাইনারী আউটপুট কী হবে সেইটা নির্ধারণ করে।
তো এরপরে আরোকিছু কনফিগারেশন নিয়ে কাজ করা হইসে, যেমন ইনপুট হিসাবে অনেকগুলা নিউরন থাকবে, সেগুলা ইনপুট প্রসেস করে আরো কিছু নিউরনকে দিবে, সেগুলা আবার ইনপুট প্রসেস করে সামনে আরো কিছু নিউরনকে দিবে, এভাবে নিউরনের কয়েকটা লেয়ার পার হয়ে ফাইনালি আউটপুট লেয়ারের নিউরনগুলা আউটপুট দিবে কিছু একটা। এগুলা মোটামুটি ১৯৫০-১৯৬০ সালের মধ্যে করা হইসে। এই মডেলগুলাকে বলা হইত নিউরাল নেটওয়ার্ক, কারণ এগুলা নিউরন দিয়ে বানানো নেটওয়ার্ক।
এখন কথা হইল এইখানে ফিজিক্স ঢুকলো কেমতে?
১৯৭০ এর আশপাশে রিকারেন্ট আর ফিডফরোয়ার্ড নিউরাল নেটওয়ার্ক নিয়ে কিছু এক্সপেরিমেন্টেশন চলতেসিল, যেগুলা ম্যাগনেটিক সিস্টেমকে সিমুলেট করার জন্য বানানো হইসিল। ফিডফরোয়ার্ড নিউরাল নেটওয়ার্ক হইল উপরে যেই নেটওয়ার্ক আলোচনা করলাম সেইটা, লেয়ার বাই লেয়ার ইনপুট প্রসেস করে আউটপুট বানায় যেইটা সেইটা।
তো জন হপফিল্ড ১৯৮২ সালে নিউরাল নেটওয়ার্কের উপরে ভিত্তি করে একটা এসোসিয়েটিভ মেমরির মডেল প্রস্তাব করসিলেন।
ব্যাপারটা হইল, জীবের মধ্যে এক দুইটা নিউরনের ইন্টার্যাকশন তেমন গুরুত্বপূর্ণ কিছু না। কিন্তু অনেকগুলা নিউরনের ইন্টার্যাকশনের রেজাল্ট হইল বুদ্ধিমত্তা, যেইটা আগের দেখানো কোনো প্যাটার্ন মনে রাখতে পারে এরপরে সেই প্যাটার্ন দেখলে চিনতে পারে। দুইটা নিউরনের কানেকশন দিয়ে জীবনেও কুকুর কোনটা বিড়াল কোনটা আলাদা করা সম্ভব না, কিন্তু অনেকগুলা নিউরন একসাথে কাজ করলে এমন কিছু একটা হয়, যেইটা দিয়ে কয়েকটা কুকুর আর কয়েকটা বিড়াল দেখার পরে কুকুর আর বিড়াল কোনটা শিখে ফেলা যায়, অনেকটা মানবশিশুর মত আরকি। তো এরকম আর্টিফিসিয়াল নিউরন, যেগুলা দিয়ে নিউরাল নেটওয়ার্ক বানানো হইসিল, এগুলার ইন্টার্যাকশন কোনোভাবে একই কাজ করতে পারে কিনা, computation abilityর জন্ম দিতে পারে কিনা, এইটাই ছিল জন হপফিল্ডের আগ্রহের বিষয়।
এখন কথা হইল অন্যান্য জড় বস্তুর ক্ষেত্রে প্রায় একইরকম কিছু জিনিস দেখা যায়, যেমন ম্যাগনেটিক সিস্টেম, তারপরে ফ্লুইড ফ্লো এর মধ্যে একটা দুইটা পার্টিকেলের ধর্ম হয়তো তেমন সিগনিফিক্যান্ট না, কিন্তু অনেকগুলা পার্টিকেলের ইন্টার্যাকশনের ফলে একটা collective phenomena তৈরী হয়। যেমন কঠিন বস্তুর এটোমিক ম্যাগনেটিক মোমেন্ট কেমনে এলাইন হয় সেইটা যেই ইকুয়েশন দিয়ে প্রকাশ করা যায় সেইটা দেখতে অনেকটা এমন – Hi = summation of Wij*Sj, where i is not equal to j. এই ইকুয়েশনটা Weiss Molecular Field কে রিপ্রেজেন্ট করে। তারপরে একটা ম্যাগনেটিক কনফিগারেশনের (উদাহরণস্বরূপঃ ফেরোম্যাগনেট) এনার্জি প্রকাশ করা যায় যেই ইকুয়েশন দিয়ে সেইটা অনেকটা এমন – E = summation of Wij*Si*Sj.
তো প্রথম ইকুয়েশনটা থেকে বোঝা যায় যে পার্টিকেলের ম্যাগনেটিক মোমেন্ট এর আশপাশের অন্য পার্টিকেলগুলার ম্যাগনেটিজমের উপরে নির্ভর করে, এনার্জির ক্ষেত্রেও সেইম। এই একই ইকুয়েশন একটু আধটু চেঞ্জ করে হপফিল্ড এপ্লাই করলেন নিউরাল নেটওয়ার্কের ক্ষেত্রে। একটা নিউরনের আউটপুট অন্য নিউরনগুলা থেকে পাওয়া ইনপুটের উপরে কীভাবে নির্ভর করে, সেই weighted sum কে প্রথম ইকুয়েশন দিয়ে, আর নেটওয়ার্কের টোটাল এনার্জি কেমন, সেইটারে দ্বিতীয় ইকুয়েশন দিয়ে মডেল করা সম্ভব। এই এনার্জিটারেই কমায়ে কমায়ে নেটওয়ার্কটা শিখে আর তার weight parameter Wij কে আপডেট করে। ম্যাগনেটিক ম্যাটেরিয়ালের জন্য ব্যবহার করা ইকুয়েশনগুলা সুন্দরমত নিউরাল নেটওয়ার্ককেও মডেল করতে হেল্প করলো। এইটা থেকে বোঝা গেল হপফিল্ডের যে স্পেকুলেশন, যে ছোট ছোট পার্টিকেলের ছোট ছোট ইন্টার্যাকশনের রেজাল্ট যেমন ম্যাগনেটিজমের এন্ড রেজাল্ট দেয়, তেমনই ছোট ছোট নিউরনের সম্মিলিত ইন্টার্যাকশনগুলাকে প্রায় একইভাবে মডেল করা গেলে এই কনফিগারেশনটাই বুদ্ধিমত্তার জন্ম দিতে পারে। জিনিসটা অনেকটা “ছোট ছোট বালিকণা, বিন্দু বিন্দু জল, গড়ে তোলে মহাদেশ, সাগর অতল” এর মত কাহিনী।
হপফিল্ডের মডেলে প্রথমে একটা ইনকারেক্ট কনফিগারেশন দিয়ে মডেলটা শুরু করা হইত, এরপরে এনার্জি কমানোর টার্গেট নিয়ে মডেলটারে এমনভাবে ডিজাইন করা হইসিল যাতে কারেক্ট রেজাল্ট যখন প্রডিউস হবে তখন লোকাল এনার্জি মিনিমামের দিকে আগাবে। এখানে ফিজিক্সের স্পিন গ্লাস থিওরীও ব্যবহার করা হইসে, যেইটা কী জিনিস আমি আসলে বুঝিনাই, সম্ভবত ম্যাগনেটিজমের যেই ব্যাপারগুলা লিখলাম সেগুলার সাথে রিলেটেড কিছু।
হপফিল্ড তার এই মডেল কিছু অপ্টিমাইজেশন প্রবলেম সলভ করতে ব্যবহার করসিলেন। যেই প্রবলেম সলভ করা লাগতো বা ভ্যারিয়েবল অপ্টিমাইজ করা লাগত সেগুলা, আর constraint গুলারে মডেলের প্যারামিটার হিসেবে এনকোড করা হইত, এরপরে মডেল ট্রেইন করায়ে করায়ে প্যারামিটারের অপ্টিমাইজড ভ্যালুগুলা বের করা হইত। এই এপ্রোচ কোয়ান্টাম এনিলিং এও করা হয় দেখলাম, জিনিসটা কী আমি বুঝিনাই। সিমুলেটেড এনিলিং এর সাথে রিলেটেড কিছু হবে হয়তো।
এই যে ফিজিক্স বেজড মডেল দিয়ে নিউরাল নেটওয়ার্কের ক্যালকুলেশন আর লার্নিং এর ভিত গড়ে দিসেন হপফিল্ড, ওনার নোবেলটা মূলত এই কারণে। আমি জিনিসগুলা পড়ে পুরা আকাশ থেকে পড়সি। মেশিন লার্নিং এর এই আউটপুট বাইর করা আর এরর ক্যালকুলেশন রিলেটেড ফর্মূলাগুলা আসলে ফিজিক্স, আরো স্পেসিফিক্যালি বলতে গেলে ম্যাগনেটিজম এর থিওরী থেকে আসছে, এই জিনিস আমি চিন্তাই করিনাই।
জিওফ্রে হিনটন এই মডেলের উপরে আরো কাজ করসেন। হপফিল্ডের কাজের এক বছর পরেই উনি এগুলা নিয়ে কাজ শুরু করসেন, এবং দুই তিন বছরের মধ্যে অনেক কিছু বাইর করসেন। হপফিল্ডের মডেলের প্যারামিটারগুলারে উনি বোল্টজম্যান ডিস্ট্রিবিউশন থেকে পাওয়া প্রোব্যাবিলিটি assign করসেন। আরো কী কী করসেন ডিটেইলস জানি না, ফাইনালি যেই জিনিস দাঁড়াইলো সেইটা প্যাটার্নের statistical distribution এর উপরে ফোকাস করে হপফিল্ডের মডেলের মত ইন্ডিভিজুয়াল মডেলের দিকে ফোকাস না দিয়ে। উনি হিডেন নোডস introduce করলেন, যেগুলা আরো general প্রোব্যাবিলিটি ডিস্ট্রিবিউশন দিয়ে নিউরাল নেটওয়ার্করে মডেল করলো। গ্র্যাডিয়েন্ট বেজড লার্নিং এলগরিদমরে প্রথমবারের মত ব্যবহার করলেন উনি। এরপরে ১৯৮৬ সালে এইটা থেকেই তিনি ডেভেলপ করলেন বর্তমানে আমরা মেশিন লার্নিং এ যেইটা প্রতিদিন ব্যবহার করি, gradient descent based backpropagation, যার মূল টার্গেট থাকে আউটপুট আর আসল রেজাল্টের Mean Squared Deviation কমানো, আর যেখানে মডেলের weight গুলার সাপেক্ষে Mean Squared Deviation এর partial derivatives নিয়ে কাজ করা হয়। এগুলা দিয়ে নব্বইয়ের দশকে মোটামুটি অনেক কিছুই হইল, মেডিকেল ইমেজিং সহ বিভিন্ন ধরণের প্যাটার্ন রিকগনিশনে সাফল্য পাওয়া গেল।
জিওফ্রে হিনটন এরপরে ২০০০ সালের দিকে আরেকটা গুরুত্বপূর্ণ কাজ করসেন। সেইটা হইল, এইসব হিডেন লেয়ারওয়ালা নিউরাল নেটওয়ার্ক, যেগুলারে ডিপ নিউরাল নেটওয়ার্ক বলে, এগুলা কাজের জিনিস হইলেও বড় বড় নেটওয়ার্কগুলার ক্যালকুলেশন অনেক বেশী চ্যালেঞ্জিং। তখনকার মেশিনগুলা অনেক টাইম নিয়ে এই কাজগুলা করতো। হিনটন যেইটা করলেন, Restricted Boltzmann Machine বানাইলেন। এই জিনিস হিনটনের আগের প্রোব্যাবিলিটি বেজড নিউরাল নেটওয়ার্ক এর মতই, কেবল একটা পার্থক্য। সেটা হইল ফুল বোল্টজম্যান মেশিনের সবগুলা নিউরন বাকি সবগুলা নিউরনের সাথে কানেক্টেড থাকে। কিন্তু রেস্ট্রিকটেড বোল্টজম্যান মেশিনের নিউরনগুলা নিজের লেয়ারের কারো সাথে কানেক্টেড থাকে না, শুধু সামনের আর পিছনের লেয়ারের সবগুলা নিউরনের সাথে কানেক্টেড থাকে। দেখেশুনে মনে হইল এই রেস্ট্রিক্টেড বোল্টজম্যান মেশিন এখনকার ফিড ফরোয়ার্ড নিউরাল নেটওয়ার্কগুলার আব্বা।
এই একটা চেঞ্জের কারণে যা হইল, কমপিউটেশনাল কমপ্লেক্সিটি অনেক অনেক কমে গেল, একইসাথে মডেলগুলার এফিসিয়েন্সি অনেকটুকু বাড়লো। “দামে কম, মানে ভালো”র মত অবস্থা আরকি।
তো সব মিলায়ে জিওফ্রে হিনটনের নোবেলটা মূলত হপফিল্ডের কাজকে এক্সটেন্ড করে মডার্ন মেশিন লার্নিং এর ভিত্তি গড়ে দেয়ার জন্য বলেই আমার মনে হইসে। বোল্টজম্যান ডিস্ট্রিবিউশন ব্যবহার করে প্রোব্যাবিলিস্টিক মডেল বানানোটাও আরেকটা কারণ। বোল্টজম্যান ডিস্ট্রিবিউশন স্ট্যাটিস্টিক্যাল ফিজিক্সের জিনিস হইলেও এইটা মেশিন লার্নিং এর একটা ব্রেকথ্রু এনে দিসে, এটা খুবই সিগনিফিক্যান্ট একটা জিনিস আসলে। হপফিল্ড যেই পার্টিকেলের মডেলের সাথে মিল রেখে নিউরাল নেটওয়ার্কের মডেল বের করসিলেন, সেই পার্টিকেলগুলার স্টেট ডিফাইন করা বোল্টজম্যান ডিস্ট্রিবিউশন দিয়েই নিউরাল নেটওয়ার্কের নিউরনগুলার স্টেট ডিফাইন করা, এবং সেইটা এক্সপেক্টেড রেজাল্ট নিয়ে আসা – নিউরনে অনুরণন ঘটানোর মতই ঘটনা।
তো মেশিন লার্নিং এর সাথেই কেন রিলেট কইরা ফিজিক্সে নোবেল দেয়া লাগলো, “বুঝলাম ফিজিক্স দিয়াই মেশিন লার্নিং এর কনসেপ্ট ডেভেলপ করসে, তাই বইলা ফিজিক্সে নোবেল প্রাইজ মেশিন লার্নিং গুরুদের কেন দেয়া লাগবে, জিনিসটা তো উলটা হইল” – এই কথাগুলার উত্তর হইল, ফিজিক্স যেই মেশিন লার্নিং এর ভিত্তি গড়ে দিসে, সেই মেশিন লার্নিং ই ফিজিক্সের কিছু বড় বড় আবিষ্কারে সাহায্য করসে। উদাহরণ হিসেবে বলা চলে ফিজিক্সের বিভিন্ন মডেল সিমুলেট করার কাজে নিউরাল নেটওয়ার্ক ইউস করা হইসে। আগেই বলসিলাম ম্যাগনেটিজম আর ফ্লুইড মেকানিক্সের জিনিসপত্র নিউরাল নেটওয়ার্ক বানানোতে কাজে আসছে, অতএব এই নিউরাল নেটওয়ার্ক দিয়ে ম্যাগনেটিজম আর ফ্লুইড মেকানিক্সের জিনিসপত্র সিমুলেট করা যাবে সেইটাই স্বাভাবিক। কোয়ান্টাম মেকানিক্সের বিভিন্ন প্রবলেমের সিমুলেশন এই নিউরাল নেটওয়ার্ক গুলা দিয়ে করা হইসে, যেখানে নেটওয়ার্কের নিউরনগুলা সিমুলেট করসে অণুপরমাণুকে, আর নিউরনগুলার মাঝের weight গুলা সিমুলেট করসে অণুপরমাণুর মধ্যকার বিভিন্ন ফোর্সের ইন্টার্যাকশনকে। এই ব্যাপারগুলা কোয়ান্টাম মেকানিক্স রিলেটেড রিসার্চগুলাকে অনেকখানি faster করসে।
পার্টিক্যাল ফিজিক্সেও নিউরাল নেটওয়ার্কের অবদান অনেক। অনেক মানে অনেক। হিগস বোসন হাই এনার্জি কলিশনের পরে খুবই অল্প সময়ের জন্য এক্সিস্ট করে, তাই এদের ডিটেকশন অনেক সূক্ষ্ম হওয়া লাগে। এজন্য ডিটেক্টরগুলার ভিতরের এনার্জি স্টেট, পার্টিকেল ডিকে রেট সহ বিভিন্ন প্যারামিটার সিমুলেট করে করে মডেল ট্রেইন করায়ে করায়ে ডিটেক্টরের সিগনেচারের একুরেসি বাড়ানোর কাজ করা হইসে এই নিউরাল নেটওয়ার্ক দিয়েই। বিশাল পরিমাণের ডেটা, যেগুলা খুবই দ্রুত জেনারেট হইতে থাকে, সেগুলা এনালাইসিস করে ডিটেকশনের স্পেসিফিক প্যাটার্ন ফাইন্ড আউট করার কাজ নিউরাল নেটওয়ার্ক ছাড়া অনেক কঠিন হইত। সার্নের লার্জ ইলেকট্রন পজিশন কলাইডারের এফিসিয়েন্সি ইমপ্রুভ করার কাজে এবং শেষমেষ ২০১২ সালে সার্নেরই লার্জ হ্যাড্রন কলাইডারের মাধ্যমে পাওয়া ডেটা এনালাইসিস করে হিগস বোসনের অস্তিত্ব আবিষ্কারের কাজ নিউরাল নেটওয়ার্ক ছাড়া সম্ভব হইত না। ফার্মিল্যাবে টপ কোয়ার্ক রিলেটেড গবেষণার জন্যও নিউরাল নেটওয়ার্ক ব্যবহার করা হইসে।
তারপরে এস্ট্রোফিজিক্সেও নিউরাল নেটওয়ার্কের অবদান আছে। দক্ষিণ মেরুতে আইসকিউব নিউট্রিনো ডিটেক্টরের ডেটা এনালাইসিস করে মিল্কিওয়ে গ্যালাক্সির নিউট্রিনো ইমেজিং, তারপরে মিল্কিওয়ে গ্যালাক্সির মাঝখানের ব্ল্যাকহোলের ছবি ডেভেলপ করার কাজে ইভেন্ট হরাইজন টেলিস্কোপের ইমেজগুলা এনালাইসিস করা এগুলা নিউরাল নেটওয়ার্ক দিয়ে করানো হইসে।
এখন এমাইনো এসিড সিকুয়েন্সের ইনফরমেশন ব্যবহার করে প্রোটিন স্ট্রাকচার প্রেডিক্ট করার জন্য নিউরাল নেটওয়ার্ক ব্যবহার করা হইতেসে। তারপরে মেডিকেল পারপাজে ব্যবহার তো আছেই।
তো সব মিলায়ে বলা চলে, মেশিন লার্নিং আর ফিজিক্সের এই ইন্টারকানেক্টিভিটির কারণে ফিজিক্সের সাহায্য নিয়ে মেশিন লার্নিং রিলেটেড জিনিসপত্র ডেভেলপ করা দুই পাইওনিয়ারকে ফিজিক্সে নোবেল প্রাইজ দেয়া যুক্তিযুক্তই লাগে আমার কাছে।
যা যা লেখসি তার রেফারেন্সরেফারেন্সঃ https://www.nobelprize.org/prizes/physics/2024/advanced-information/
https://www.pnas.org/doi/abs/10.1073/pnas.79.8.2554