რა არის მანქანური დასწავლა?

 უძველესი დროიდან, მეცნიერები, მათ შორის პასკალი და ლაიბნიცი, ოცნებობდნენ მანქანებზე, რომლებსაც გარე სამყაროს დანახვა, აღქმა და მასთან ურთიერთქმედება შეეძლებოდა. მწერლები და რეჟისორები, როგორიცაა ჟიულ ვერნი, მერი შელი, ჯორჯ ლუკასი და სტივენ სპილბერგი, ამგვარი ჭკვიანი მოწყობილობების სახეებს ქმნიდნენ. ე.წ. მანქანურმა დასწავლამ უკვე დაამტკიცა, რომ კომპიუტერებს, რობოტებსა და ადამიანს ძალიან ბევრი რამ აქვთ საერთო.

 მაინც რა არის ეს მანქანური დასწავლა? მოკლედ რომ ვთქავთ, ეს არის მეცნიერული დისციპლინა, რომელიც ცდილობს დაადგინოს: ”როგორ დავაპროგრამოთ სისტემები ავტომატურ სწავლებასა და სრულყოფაზე, ახალი გამოცდილების შეძენასთან ერთდ”. სწავლება ამ კონტექსტში არ განიხილბა, როგორც ახალი ცოდნის მიღება, არამედ რთული “პატერნების” (ნიმუში, შაბლონი, ფორმა, მოდელი, სქემა, დიაგრამა…) გარჩევა და ინტელექტუალური გადაწყვეტილებების მიღება არსებულ მონაცემებზე დაყრდობით. ყველაზე დიდი სირთულე ისაა, რომ ძალიან ძნელია აღწერო ყველა შესაძლო გადაწყვეტილებათა ნაკრები, ყველა შემოსული მონაცემების გათვალისწინებით. ამ პრობლემის გადასაჭრელად, მანქანური სწავლების ჩარჩოებში, ალგორითმების შემუშავება ხდება, რომლებიც აუცილებელ ცოდნას იღებენ კონკრეტული მონაცემებიდან და გამოცდილებიდან, სტატისტიკურსა და გამოთვლით პრინციპებზე დაყრდობით.

 მანქანური დასწავლის ისტორია უკვე 70-ზე მეტ წელს ითვლის. პირველი კომპიუტერული სისტემა 1946 წელს იქნა შემუშავებული – ENIAC. მაშინ, კომპიუტერს უწოდებდნენ ადამიანს, რომელიც ქაღალდზე ახდენდა გამოთვლებს, ხოლო ENIAC-ს, გამომთვლელი მანქანა ეწოდა. ის იმართებოდა ხელით, ადამიანი მის კომპონენტბს ერთმანეთს უერთებდა, რათა გამოთვლები მომხდარიყო. ითვლებოდა, რომ ასეთი მანქანისთვის ადამიანური მიდგომებითა და აზროვნებით აღჭურვა სრულიად ლოგიკური და გადაჭრადი ამოცანა იყო.

 1950 წელს, ბრიტანელმა მათემატიკოსმა, ალან ტურინგმა, მანქანის სწავლების პროდუქტიულობის საზომი ხერხი წარმოადგინა, რასაც ”ტურინგის ტესტი” უწოდეს: თუ მანქანა მართლა სწავლობს, მისი და ადამიანის ერთმანეთისგან განსხვავება ძნელი იქნება”. მაშინდელ სისტემებს ”ტურინგის ტესტის” გავლა, რა თქმა უნდა, არ შეეძლო, თუმცა, გამომგონებლებს საკმაოდ საინტერესო მოწყობილობების შექმნისკენ უბიძგა.

 1952 წელს, არტურ სემუელმა, კომპანია IBM-იდან, კომპიუტერული ”შაში” (თამაში) დაწერა და ამოცანად დაისახა ოსტატობის ისეთ დონეზე აეყვანა იგი, რომლითაც მსოფლიო ჩემპიონთან შერკინებასაც კი შეძლებდა. სამუელის მანქანური დასწავლის პროგრამები პროფესიონალ მოჭადრაკეებს ოსტატობის ამღლებაში ეხმარებოდა.

 კიდევ ერთი მნიშვნელოვანი სისტემაა – ELIZA, შექმნილი წინა საუკუნის სამოციანი წლების დასაწყისში, იოზეფ ვაიცენბაუმის მიერ. ELIZA იყო ფსიქოთერაპევტის სიმულატორი და ისეთ ხრიკებს იყენებდა, როგორიც არის სიტყვების ჩანაცვლება და წინასწარ გამზადებული პასუხები, ზოგიერთ საკვანძო სიტყვაზე რეაქციის სახით. ამ სისტემასთან პირველი ურთიერთობისას, ზოგი, ცოცხალ ადამიანად აღიქვამდა მას.

 რეალური საუბრის შეგრძნება უფრო მძაფრდებოდა, თუ ადამიანი მხოლოდ თავის თავსა და თავის ცხოვრებაზე საუბრით შემოიფარგლებოდა. ELIZA იდეალურობისგან ძალიან შორს იყო, თუმცა თანამედროვე ელექტრონული დამხმარეების ( Siri, Cortana) ყველაზე ადრეულ ნიმუშს ნამდვილად წარმოადგენდა. აღსანიშნავია სისტემა MYCIN, რომელიც 70-იანი წლების დასაწყისში, სტენფორდელმა მეცნიერებმა შექმნეს, ტედ შორთლიფის ხელმძღვანელობით. ის, კითხვებისა და პასუხების ჯაჭვის საშუალებით, ექიმებს სწორი დიაგნოზის დასმასა და მკურნალობის დანიშვნაში ეხმარებოდა.

 საექსპერტო სისტემების გამოჩენასთან ერთდ, მანქანური დასწავლის პრობლემის მიმართ განხვავებული მიდგომებიც გაჩნდა. 1957 წელს, ამერიკელმა ნეიროფიზიოლოგმა, ფრენკ როზენბლატმა შეიმუშავა პერცეპტრონი – ტვინის მიერ ინფორმაციის აღქმის კომპიუტერული მოდელი, რეალიზებული ელექტრონულ მანქანაში ”მარკ-1”, რომელიც ნეიროქსელების ერთ-ერთი პირველი მოდელი გახდა. 1960 წლის 23 ივნისს, კორნელის უნივერსიტეტში პირველი ნეიროკომპიუტერი – ”მარკ-1” იქნა წარმოდგენილი , რომელსაც ინგლისური ანბანის ზოგიერთი ასოს ამოცნობა შეეძლო.

 პერცეპტრონს ნიმუშების კლასიფიცირება რომ ”ესწავლა”, სპეციალური იტერაციული (მონაცემთა დამუშავების ორგანიზაცია, რომელშიც ქმედებები არაერთხელ მეორდება) მეთოდი იქნა შემუშავებული, დაფუძნებული სინჯებსა და შეცდომებზე, რომელიც ადამიანის სწვალების პროცესს, შეცდომათა კორექციის მეთოდს ჰგავს. გარდა ამისა, ამა თუ იმ ასოს გარჩევისას, პერცეპტრონს სტატისტიკურად უფრო ხშირი დამახასითებელი თავისებურებების გამოყოფა შეეძლო, მცირე მნიშვნელობის განსხვავებებისგან ცალკეულ შემთხვევებში. ამით, პერცეპტრონი სხვადასხვაგვარად დაწერილი (ხელწერა) ასოების ერთი განზოგადოებული ნიშნის ქვეშ თავმოყრას ახერხებდა.

 მიუხედავად ამისა, კომპიუტერების სწავლების ნეიროქსელურ მიდგომას ყველა არ იზიარებდა. კვლევები მხოლოდ კონკრეტული ამოცანის ამოხსნისათვის დაპროგრამებული მანქანების შექმნაზე იქნა ფოკუსირებული – ინდუსტრიული უძრაობა 10 წელი გაგრძელდა.

 90-იანი წლების დასაწყისში, ინფორმატიკისა და სტატისტიკის ერთმანეთთან გადაკვეთის ფონზე, მანქანური დასწავლა ისევ პოპულარულ თემად იქცა. ასეთმა სინერგიამ (ბერძნ. თანამშრომლობა, ხელშეწყობა, დახმარება, მონაწილეობა, თანხმობა – საქმე, მუშაობა, (ზე)მოქმედება)) ხელოვნური ინტელექტის სფეროში, აზროვნების ახალი მეთოდის გაჩენამდე მიგვიყვანა – ალბათური მიდგომა. აქამდე არსებული საექსპერტო სისტემებისგნ განსხვავებით, რომლებიც გამომუშავებულ უნარებს ეყრდნობოდა, ახალი მეთოდის საფუძველს, მონაცემთა მოცულობა წარმოადგენდა. დღეს, მანქანური დასწავლის წარმატებით გამოყენების შემთხვევები, მაშინდელი იდეების ლოგიკური გაგრძელებაა.

 მანქანური დასწავლის მნიშვნელოვანი ასპექტია ფენომენი, რომელსაც Big Data (დიდი მონაცემები)-ს უწოდებენ. 90-იანებში აშკარა გახდა, რომ რაც უფრო მეტ სტატისტიკურ ინფორმაციას მივცემთ გამომთვლელ სისტემას, მით მეტი იქნება შეთავაზებული მონაცემების სწორი აღქმის უნარის გამომუშავების ალბათობა.

 ინტერნეტის გაჩენისა და შემნახავი მოწყობილობების გაიაფების ხარჯზე, მეცნიერების ხელში მონაცემთა ისეთი მოცულობა აღმოჩნდა, რომელზეც 50 წლის წინათ ვერც კი იოცნებებდნენ. ამასთან ერთდ, მონაცემთა მოცულობა გეომეტრიული პროგრესიით იზრდება. მაგალითად, ბიოლოგებს, გენომის შესახებ 1 ექსაბაიტი მოცულობის მონაცემები გააჩნიათ (1018 ბაიტი) (სუპერკომპიუტერი – Watson, კიბოს წინააღმდეგ). სავარაუდოდ, 2024 წლისთვის, ტელესკოპების ახალი თაობა ასეთ მონაცემთა გენერირებას ყოვლ დღე მოახდენს (რადიო ობსერვატორია ALMA).

 ბოლო წლების ყველაზე დიდ წარმატებად, მეცნიერ ჯეფრი ჰინტონისა და კომპანია ImageNet-ის დამაარსებლის, ფეი-ფეი ლის თანამშრომლობა შეიძლება ჩაითვალოს, რომლებმაც ღრმა დასწავლის ფენომენის საქმეში საკმაოდ წინ წაიწიეს. მრავალფენიანი ნეიროქსელებისა და მილიონობით გამოსახულების გამოყენებით, რომლებიც ImageNet-ზე დაგროვდა, მეცნიერებმა შეძლეს, რომ კომპიუტერმა არა ლოგიკის საფუძველზე დაიწყო ინფორმაციის აღქმა, არამედ ისე, როგორც ადამიანი აღიქვამს გრძნობის ორგანოებიდან მოსულ ინფორმაციას. ღრმა დასწავლა, კონტროლირებული სწავლებისგან გამიჯვნის საშუალებას იძლევა, რათა მანქანებმა დამოუკიდებლად ისწავლონ, ადამიანის მხრიდან რაიმენაირი ჩარევის გარეშე.

 ასეთი მიდგომის მართებულობის ნათელი მაგალითია ექსპერიმენტი, რომელიც კომპანია Google-მ 2012 წელს ჩაატარა, კომპანიაში ჯეფრი ჰინტონის მოსვლიდან მალევე. ექსპერიმენტში 1000 სერვერი იქნა გამოყენებული, დაახლოებით 16 ათასი ბირთვით. ნეიროქსელი, YouTube-ზე არსებული 10 მილიონამდე შემთხვევითი ვიდეო ჩანაწერიდან აღებული კადრების ანალიზს ახდენდა და სიზუსტის მაღალი ხარისხით შეძლო კატის გამოსახულების გამორჩევა. Google Brain-ის ჩარჩოებში ჩატარებული ექსპერიმენტით დამტკიცდა, რომ ჰინტონისეული მიდგომა სწორია და კომერციული პოტენციალიც გააჩნია. მაგალითად, უამრავი რაოდენობის გამოსახულებათა გამოყენებაზეა დაფუძნებული Google-ს თვითმართვადი ავტომობილების მუშაობა.

 Google-სვე პროქტი DeepMind, გამაოგნებელ შედეგებს იძლევა, ღრმა დასწავლის შეთავსებით ტექნიკასთან, რომელსაც გაძლიერებული დასწავლა უწოდეს. კომპანიამ შექმნა სისტემა AlphaGo, რომელმაც გოს (ჩინური სამაგიდო თამაში) მსოფლიო ჩემპიონი დაამარცხა. IBM Deep Blue-სგან განსხვავებით, რომელმაც 1997 წელს, გარი კასპაროვი წინასწარ მიღებული ვარიანტებით დაამარცხა, AlphaGo პროფესიონალების თამაშზე სწავლობდა, თავის თავთან მილიონობით პარტია ითამაშა, შედეგების ანალიზით კი დამოუკიდებელი სტრატეგია ააწყო.

 მანქანური დასწავლა, ჩვენს ყოველდღიურობაშიც შეუმჩნევლად იჭრება – პროდუქტის ასარჩევი ონლაინ-მაღაზიები, სპამის ფილტრაცია ელექტონულ ფოსტაში. ზოგჯერ, რომელიმე კომპანიის სადამხმარებლო სამსახურის ტელეფონზე დარეკვისას, ძნელად თუ ვგებულობთ ხოლმე, ადამიანი გვესაუბრება თუ ციფრული ასისტენტი, რომელიც საუბრის კონტექსტიდან გამომდინარე, სწორ პასუხებს იძლევა.

 აშკარა უპირატესობების მიუხედავად, ამ ფენომენს საშიშროებაც ახლავს თან. არ იგულისხმება დრო, როცა მანქანები ჩვენ განადგურებას გადაწყვეტენ. არა, ხელოვნური ინტეელქტისა და მანქანური დასწავლის ნეგატიურ ზეგავლენას უახლოეს მომავალში ვიგრძნობთ, როცა უამრავი პროფესიის ადამიანი უმუშევარი დარჩება. მსოფლიო ეკონომიკური ფორუმის მონაცემებით, მომავალი 10 წლის განმავლობაში, კომპიუტერები და რობოტები 5 მილიონ სამუშაო ადგილს დაიკავებენ, რომლებიც ახლა, ადამიანებს ეკუთვნის… (Google-ს ხელოვნური ინტელექტი ”კეპლერის” მონაცემებში დამალულ საგანძურს ნახულობს).

Leave a Reply

თქვენი ელფოსტის მისამართი გამოქვეყნებული არ იყო. აუცილებელი ველები მონიშნულია *

This site uses Akismet to reduce spam. Learn how your comment data is processed.