AI-სა და ნეირომეცნიერების განვითარება იწვევს ტვინის სწავლების მექანიზმებზე ახალი თეორიების წარმოშობას. ეს ქეისი განიხილავს, როგორ ცდილობენ მეცნიერები ტვინის ფუნქციონირების უკეთ გაგებას AI-ის ტექნოლოგიების დახმარებით და რა გავლენა შეიძლება ჰქონდეს ამ თეორიებს მომავალ კვლევებზე.
ხელოვნური ნეირონული ქსელების ხუთი ათწლეულის კვლევა ჯეფრი ჰინტონს ხელოვნური ინტელექტის (AI) „მამად“ მოიხსენიებს. მისმა ჯგუფმა ტორონტოს უნივერსიტეტში ჩაუყარა საფუძველი დღევანდელი AI მოდელებს, როგორიცაა ChatGPT და LaMDA, რომლებსაც შეუძლიათ დაწერონ შეკრული (თუმცა ნაკლებად ინსპირაციული) პროზა, დიაგნოსტიკა ჩაუტარონ პაციენტებს სამედიცინო სკანირების მეშვეობით და მართონ თვითმართვადი მანქანები. მაგრამ ჰინტონისთვის, უკეთესი მოდელების შექმნა არასოდეს ყოფილა საბოლოო მიზანი. მისი სურვილი იყო, რომ ხელოვნური ნეირონული ქსელების მეშვეობით, რომლებიც სწავლობენ რთული ამოცანების გადაჭრას, უფრო მეტი გაგვეგო, თუ როგორ აკეთებენ ამას ტვინის ნეირონული ქსელები.
ტვინი სწავლობს მცირე ცვლილებებით: ნეირონებს შორის ზოგიერთი კავშირი, რომელსაც სინაფსები ეწოდება, ძლიერდება, ხოლო სხვები სუსტდება. თუმცა, რადგან ტვინი შეიცავს მილიარდობით ნეირონს, რომელთაგან მილიონობით მათგანი შეიძლება ჩართული იყოს ერთი ამოცანის შესრულებაში, მეცნიერები ცდილობენ გაიგონ, თუ როგორ იცის ტვინმა, რომელი სინაფსი შეასწოროს და რამდენად. ჰინტონმა პოპულარიზაცია გაუწია მათემატიკურ ალგორითმს, რომელსაც ეწოდება უკუმიმართვის–შეცდომის ალგორითმი, რომელიც ამ პრობლემას ხელოვნურ ნეირონულ ქსელებში აგვარებს. თუმცა დიდი ხნის განმავლობაში ითვლებოდა, რომ ეს მეთოდი ძალიან რთული იყო ადამიანის ტვინისთვის.
ახლა, როცა AI მოდელები უფრო და უფრო ჰგვანან ადამიანს თავიანთი უნარებით, მეცნიერები იწყებენ ფიქრს, ხომ არ იყენებს ტვინი მსგავს მეთოდს. ტვინის მუშაობის მექანიზმის დადგენა რთულია. ნეირომეცნიერების დიდი ნაწილი იმის შესახებ, თუ როგორ სწავლობს ადამიანი, მოდის მცირე ნაჭრების ან საკვებში მცხოვრები ნეირონების ექსპერიმენტებიდან. თანამედროვე ექსპერიმენტული ტექნოლოგიებითაც კი, რომლებსაც შეუძლიათ თვალყური ადევნონ ასობით ნეირონს ცოცხალ ცხოველებში, რთულია ზუსტად გაიგონ, რა ხდება.
ჰებბისეული სწავლა და უკუმიმართვის ალგორითმი
ერთი ყველაზე ცნობილი და დიდი ხნის თეორია ტვინის სწავლების შესახებ არის ჰებბისეული სწავლა. ეს იდეა გულისხმობს, რომ ნეირონები, რომლებიც აქტიურდებიან დაახლოებით ერთდროულად, მტკიცედ უკავშირდებიან ერთმანეთს. ეს ხშირად შეჯამებულია ფრაზით: „უჯრედები, რომლებიც მოქმედებენ ერთად, ერთიანდებიან ერთად“. ჰებბისეული სწავლა კარგად ხსნის, როგორ სწავლობს ტვინი მარტივ ასოციაციებს — მაგალითად, პავლოვის ძაღლები, რომლებიც ზარის ხმაზე ნერწყვმდენდნენ. მაგრამ უფრო რთული ამოცანებისთვის, როგორიცაა ენის შესწავლა, ჰებბისეული სწავლა ძალიან არაეფექტურია.
დღევანდელი წამყვანი AI მოდელები სხვანაირად არის დაპროექტებული. მაგალითად, წარმოიდგინეთ ნეირონული ქსელი, რომელიც გაწვრთნილია ჩიტების ამოსაცნობად სურათებში. ასეთი მოდელი შედგება ათასობით სინთეზური ნეირონისგან, რომლებიც ფენებადაა განლაგებული. სურათები შედის ქსელის პირველ ფენაში, რომელიც ინფორმაციას გადასცემს შემდეგ ფენას. ეს პროცესი გრძელდება, სანამ საბოლოო ფენამდე არ მიაღწევს, რომელიც განსაზღვრავს, არის თუ არა სურათზე ჩიტი.
ამ სწავლებაში ინტეგრალური არის უკუმიმართვის–შეცდომის ალგორითმი, რომელსაც ხშირად უწოდებენ „ბექპროფს“. თუ ქსელი შეცდომით განსაზღვრავს სურათს, იგი წარმოქმნის შეცდომის სიგნალს, რომელიც მოძრაობს უკუსვლით ქსელში, ფენა–ფენა, რათა მინიმუმამდე დაიყვანოს მომავალი შეცდომები. თუმცა ნეირომეცნიერები დიდი ხანია სკეპტიკურად უყურებდნენ იმას, რომ უკუმიმართვა ტვინში მუშაობს.
ახალი თეორიები და ექსპერიმენტები
ნეირომეცნიერებისა და ხელოვნური ინტელექტის საზღვარზე მომუშავე მეცნიერებმა აჩვენეს, რომ ბექპროფის მცირე ცვლილებები შეიძლება ტვინთან უფრო შესაბამისი გახდეს. ერთმა გავლენიანმა კვლევამ აჩვენა, რომ ტვინში არსებული ქსელის სარკული გამოსახულება არ უნდა იყოს ზუსტი ასლი სწავლისთვის, რაც ნაკლებად არარეალურია. სხვა მკვლევარებმა იპოვეს გზები სარკული ქსელის გვერდის ავლით. თუ ხელოვნური ნეირონული ქსელები მიიღებენ ბიოლოგიურად რეალისტურ მახასიათებლებს, მაშინ ბექპროფი შეიძლება მოხდეს ნეირონების ერთ კომპლექტთან.
მკვლევარები ასევე იკვლევენ სრულიად განსხვავებულ თეორიებს. ამ წლის დასაწყისში, ოქსფორდის უნივერსიტეტის იუანგ სონგმა და მისმა კოლეგებმა გამოაქვეყნეს მეთოდი, რომელიც ბექპროფს სრულიად ცვლის. ტრადიციულ ბექპროფში შეცდომის სიგნალები იწვევს სინაფსების კორექტირებას, რაც იწვევს ნეირონული აქტივობის ცვლილებებს. ოქსფორდის მკვლევრებმა კი წამოაყენეს იდეა, რომ ქსელი პირველად ცვლის ნეირონების აქტივობას და მხოლოდ შემდეგ აკორექტირებს სინაფსებს.
სწავლების ტესტირება
ამ თეორიების შესამოწმებლად ექსპერიმენტების შექმნა რთულია. სტენფორდის უნივერსიტეტის არან ნაებიმ და მისმა კოლეგებმა გამოიყენეს ხელოვნური ინტელექტი ამ პრობლემის გადასაჭრელად. მათ ასწავლეს ნეირონული ქსელები სხვადასხვა ამოცანების შესრულება და შემდეგ მონიტორინგი გაუწიეს თითოეულ ქსელს. მათ შეძლეს აღიარების მეტამოდელი შეექმნათ, რომელიც გაიგებდა, თუ რომელი ალგორითმი იყო გამოყენებული.
ტვინის მიერ სწავლის ალგორითმის იდენტიფიცირება ნეირომეცნიერებისთვის დიდი წინსვლა იქნებოდა. არა მხოლოდ იმიტომ, რომ ეს დაგვეხმარება გავიგოთ ტვინის მუშაობის მექანიზმი, არამედ შესაძლებელი გახდება ახალი AI ინსტრუმენტების შექმნა, რომლებიც მიზნად ისახავს კონკრეტული ნეირონული პროცესების გაგებას.
წყარო: economist