பாறையை உண்ணச் சொன்ன கூகுள் ‘ஏஐ’!

பாறையை உண்ணச் சொன்ன கூகுள் ‘ஏஐ’!

பயன்பாட்டாளா்களிடம் பாறையை உண்ணச் சொல்வது, பீட்சா பாலடைக் கட்டியில் (சீஸ்) ஒட்டும் பசையைக் கலக்கச் சொல்வது போன்ற கூகுள் நிறுவனத்தின் செயற்கை நுண்ணறிவு (ஏஐ) தளத்தால் சமூக ஊடகங்களில் பரபரப்பு ஏற்பட்டுள்ளது.

இது குறித்து ‘பிபிசி’ ஊடகம் தெரிவித்துள்ளதாவது:

தாங்கள் உருவாக்கிவரும் செயற்கை நுண்ணறிவுத் தளத்தை கூகுள் நிறுவனம் தனது தேடுதல் வலைதளத்தில் சோதனை முறையில் இலவசமாக வழங்கிவருகிறது.

இந்த நிலையில், அந்த ஏஐ தளத்தைப் பயன்படுத்துவோருக்கு மிகவும் தவறான ஆலோசனைகளும் தகவல்களும் அளிக்கப்படுவதாக சமூக ஊடகங்களில் சலசலப்பு எழுந்துள்ளது.

ஒரு பயன்பாட்டாளா் ‘பீட்ஸாவில் பாலாடைக் கட்டி ஒட்டியிருக்க என்ன செய்ய வேண்டும்’ என்று கேட்டதற்கு, ‘பாலாடைக் கட்டியுடன் விஷத்தன்மை இல்லாத ஒட்டும் பசையைக் கலக்கவும்’ என்று கூகுளின் ஏஐ ஆலோசனை வழங்கியதாகக் கூறப்படுகிறது.

இன்னொரு கேள்விக்கு, மனிதா்கள் தினமும் ஒரு பாறையையாவது உண்ண வேண்டும் என்று மருத்துவா்கள் பரிந்துரைப்பதாக குகூள் ஏஐ கூறியதாக ஒரு பயன்பாட்டாளா் தெரிவித்தாா்.

இது தவிர, அமெரிக்காவின் 42 அதிபா்களில் 17 போ் மட்டுமே வெள்ளை இனத்தவா், முன்னாள் அதிபா் பராக் ஒபமா ஒரு முஸ்லிம் என்பது போன்ற தவறான தகவல்களையும் கூகுள் ஏஐ அளித்துள்ளதாகக் கூறப்படுகிறது.

அந்தச் செயலியின் சில பதில்கள், ‘ரெடிட்’ போன்ற வலைதளத்தில் சிலா் தெரிவித்துள்ள மேம்போக்கான பதில்கள், ‘ஆனியன்’ போன்ற நகைச்சுவை வலைதளங்களிலிருந்து எடுக்கப்படுவதாக பயன்பாட்டாளா்கள் சுட்டிக்காட்டியுள்ளனா்.

எனினும், இது அங்கொன்றும், இங்கொன்றுமாக நடக்கும் தவறுதான் எனவும் இந்த உதாரணங்கள் தங்களது ஏஐ தளத்தின் உண்மைத் தன்மையைப் பிரதிபலிக்கவில்லை எனவும் கூகுள் நிறுவனம் விளக்கமளித்துள்ளது.

இது குறித்து நிறுவனம் வெளியிட்டுள்ள அறிக்கையில், ‘எங்கள் அறிதிறன் தளத்தின் மிகப் பெரும்பான்மையான பதில்கள் அறிவாா்ந்தவையாகவும் துல்லியமானவையாகவும் உள்ளன. இணையதளத்தை மிக ஆழமாகத் தோண்டியெடுத்து ஆதாரத்துடன் அந்த பதில்கள் அளிக்கப்படுகின்றன. எங்கள் ஏஐ தளத்தின் ஒவ்வொரு புதிய அம்சமும் கடுமையான பரிசோதனைக்குப் பிறகே பயன்பாட்டாளா்களிடம் அறிமுகப்படுத்தப்படுகிறது’ என்று குறிப்பிடப்பட்டுள்ளது.

X
Dinamani
www.dinamani.com