கே:
தர்பா "விளக்கக்கூடிய AI" ஐ ஏன் ஆராய்ச்சி செய்கிறது?
ப:பொதுவாக, விளக்கக்கூடிய செயற்கை நுண்ணறிவு தரவு அறிவியலில் அதிநவீன வேலைகளில் மிகவும் முக்கியத்துவம் வாய்ந்த பகுதியாக மாறி வருகிறது. இது இயல்பாகவே கொந்தளிப்பான மற்றும் மாறும் தொழில்நுட்பத்தின் மனித கட்டுப்பாட்டை வழிநடத்த உதவுகிறது - செயற்கை நுண்ணறிவு எவ்வாறு செயல்படும் என்பது பற்றிய எங்கள் கூட்டு கேள்விகளுக்கு விளக்கக்கூடிய AI உதவுகிறது.
விளக்கக்கூடிய AI ஐப் புரிந்து கொள்ள, "வழக்கமான AI" எப்படி இருக்கும் என்பதைப் புரிந்துகொள்ள இது உதவுகிறது. பாரம்பரியமாக, AI வடிவம் பெறத் தொடங்குகையில், வழக்கமான திட்டம் ஒரு ஆடம்பரமான புதிய மென்பொருள் திறனைக் கொண்டுள்ளது, இது வழிமுறைகள் மற்றும் பயிற்சித் தொகுப்புகள் மற்றும் நேரியல் குறியீட்டில் மறைக்கப்பட்டுள்ளது, இது பயனர்களுக்கு ஒரு "தொகுதி பெட்டி". அது செயல்படுகிறது என்பதை அவர்கள் அறிவார்கள் - எப்படி என்பது அவர்களுக்குத் தெரியாது.
இது "நம்பிக்கை சிக்கல்களுக்கு" வழிவகுக்கும், அங்கு தொழில்நுட்பம் எந்த அடிப்படையில் முடிவுகளை எடுக்கிறது என்பதை பயனர்கள் கேள்வி எழுப்பக்கூடும். விளக்கக்கூடிய AI இதுதான் உரையாற்ற வேண்டும்: விளக்கக்கூடிய AI திட்டங்கள் இறுதி பயனர்களுக்கு AI இன் நோக்கத்தையும் கட்டமைப்பையும் காட்ட கூடுதல் உள்கட்டமைப்புடன் வருகின்றன - அது ஏன் அதைச் செய்கிறது.
பில் கேட்ஸ் மற்றும் எலோன் மஸ்க் போன்ற சிறந்த கண்டுபிடிப்பாளர்கள் செயற்கை நுண்ணறிவு எவ்வாறு செயல்படும் என்பது குறித்து கவலை தெரிவிக்கும் ஒரு யுகத்தில், விளக்கக்கூடிய AI மிகவும் கவர்ச்சிகரமானதாகத் தெரிகிறது. தொழில்நுட்பங்கள் எதைச் செய்கின்றன, நம்பிக்கையை அதிகரிக்கின்றன, மேலும் இந்த தொழில்நுட்பங்களின் பயன்பாட்டை எளிதாக்குவதையும் பயன்படுத்துவதையும் அதிகரிக்க பயனர்கள் புரிந்துகொள்ள நல்ல விளக்கக்கூடிய AI உதவும் என்று நிபுணர்கள் வாதிடுகின்றனர்.
குறிப்பாக, புதிய திட்டங்களில் ஏன் ஆர்வம் காட்டுகிறது என்பதை தர்பா குறிப்பாக விளக்குகிறது. DARPA இல் உள்ள ஒரு பக்கம், செயற்கை நுண்ணறிவு பயன்பாடுகளின் “நீரோடை” யையும், அதன் வளர்ச்சியில் ஓரளவு குழப்பத்தையும் பாதுகாப்புத் துறை எதிர்பார்க்கிறது என்பதைக் காட்டுகிறது.
டேவிட் கன்னிங் எழுதுகிறார்: "தொடர்ச்சியான முன்னேற்றங்கள் தன்னாட்சி அமைப்புகளை உருவாக்குவதற்கும், அவற்றைக் கற்றுக்கொள்வதற்கும், தீர்மானிப்பதற்கும், செயல்படுவதற்கும் உறுதியளிக்கின்றன" என்று டேவிட் கன்னிங் எழுதுகிறார். இருப்பினும், இந்த அமைப்புகளின் செயல்திறன் இயந்திரத்தின் தற்போதைய முடிவுகளால் அவற்றின் முடிவுகளையும் செயல்களையும் மனித பயனர்களுக்கு விளக்க முடியாது. … வருங்கால போர்வீரர்கள் வளர்ந்து வரும் தலைமுறை செயற்கை அறிவார்ந்த இயந்திர கூட்டாளர்களைப் புரிந்துகொள்வதற்கும், சரியான முறையில் நம்புவதற்கும், திறம்பட நிர்வகிப்பதற்கும் விளக்கக்கூடிய AI - குறிப்பாக விளக்கக்கூடிய இயந்திரக் கற்றல் அவசியம். ”
கன்னிங்கின் ஆன்லைன் கட்டுரை, விளக்கக்கூடிய AI அமைப்புகள் தொழில்நுட்பங்களுக்கான “பகுத்தறிவை வழங்க” உதவும், அவற்றின் பலம் மற்றும் பலவீனங்களைக் காட்ட உதவும், மேலும் பயன்பாட்டு நிகழ்வுகளை மிகவும் வெளிப்படையானதாக மாற்ற உதவும். பயிற்சி தரவுகளிலிருந்து செயற்கை நுண்ணறிவு செயல்பாட்டின் நேரடியான குழாய்வழி எவ்வாறு விளக்கக்கூடிய மாதிரி மற்றும் பயனர் கேள்விகளுக்கு பதிலளிக்க உதவும் ஒரு விளக்கக்கூடிய இடைமுகம் என பெரிதாக்கப்படும் என்பதை பக்கத்தில் உள்ள ஒரு கிராஃபிக் காட்டுகிறது. கன்னிங் மேலும் விளக்கக்கூடிய AI திட்டத்தில் இரண்டு முக்கிய கவனம் செலுத்தும் பகுதிகள் இருக்கும் - ஒன்று பயனர்களுக்கு பயனுள்ளதாக இருப்பதைக் கண்டறிய மல்டிமீடியா தரவு மூலம் பிரிக்கப்பட வேண்டும், மேலும் இரண்டாவது கவனம் முடிவு ஆதரவுக்கான முடிவு செயல்முறைகளை உருவகப்படுத்துகிறது.
எதிர்காலத்தில் விளக்கக்கூடிய AI அமைப்புகளை உருவாக்க உதவும் "கருவித்தொகுப்பை" வழங்க தர்பா நம்புகிறது.
