ಲಾರ್ಜ್ ಲಾಂಗ್ವೇಜ್ ಮಾಡೆಲ್ (ಎಲ್ಎಲ್ಎಮ್)

ಎಲ್ಎಲ್ಎಮ್ (LLM) ಎಂಬುದು ಕೃತಕ ಬುದ್ಧಿವಂತಿಕೆಯ (artificial intelligence) ಒಂದು ಬಗೆ. ಇದರ  ಉದ್ದೇಶವು ಮಾನವರ ಭಾಷೆಯನ್ನು  ಅರ್ಥ ಮಾಡಿಕೊಳ್ಳುವುದು ಮತ್ತು ಮಾನವರ ಭಾಷೆಯಲ್ಲಿ ಮಾತಾಡುವುದು.  ಎಲ್ಎಲ್ಎಮ್ ರಚನೆಯಲ್ಲಿ "ಆಳ ಕಲಿಕೆ"  (deep learning) ಎಂಬ ತಂತ್ರಜ್ಞಾನ  ಬಳಸಲಾಗುತ್ತದೆ. ಟ್ರಾನ್ಸ್ ಫಾರ್ಮರ್ ಗಳೆಂಬ ತಂತ್ರಾಂಶ ಬಳಸಿ ಬೃಹತ್ ಮಟ್ಟದಲ್ಲಿ ಪುಸ್ತಕಗಳು/ಪತ್ರಿಕೆಗಳು ಇತ್ಯಾದಿಗಳಲ್ಲಿರುವ ಮಾಹಿತಿಯನ್ನು ಓದಿಕೊಂಡು ಭಾಷೆಯ ಸಮರ್ಪಕ ಬಳಕೆಯನ್ನು ಕಲಿತು ನಂತರ ಓದಿದ ಯಾವುದೇ ವಿಷಯವನ್ನು  ಕುರಿತು ಸ್ವಂತ ವಾಕ್ಯಗಳನ್ನು ರಚಿಸುವ ಸಾಮರ್ಥ್ಯವನ್ನು ಎಲ್ ಎಲ್ ಎಮ್ ಹೊಂದಿದೆ.  ಉದಾಹರಣೆಗೆ ಓಪನ್ ಏಐ ಸಂಸ್ಥೆಯ ಚಾಟ್ ಜಿಪಿಟಿ, ಗೂಗಲ್ ಸಂಸ್ಥೆಯ ಜೆಮಿನಿ, ಇತ್ಯಾದಿ ತಂತ್ರಾಂಶಗಳು ಅನೇಕಾನೇಕ ವಿಷಯ ಕುರಿತು ಅನೇಕಾನೇಕ ಭಾಷೆಗಳಲ್ಲಿ ಬಳಕೆದಾರರೊಂದಿಗೆ ಲೀಲಾಜಾಲವಾಗಿ ಹರಟೆ ಹೊಡೆಯಬಲ್ಲವು, ಬಳಕೆದಾರರ ಪ್ರಶ್ನೆಗಳನ್ನು ಉತ್ತರಿಸಬಲ್ಲವು. []


ಓದಲು ಬರೆಯಲು ತರಬೇತಿ

ಎಲ್ಎಲ್ಎಮ್ ನಿಜವಾಗಲೂ ಒಂದು ಪುಸ್ತಕ ಕ್ರಿಮಿ ಎನ್ನಬಹದು.  ಪುಸ್ತಕ, ಪತ್ರಿಕೆ ಮುಂತಾದ ಕಡೆಗಳಿಂದ  ಲಕ್ಷ ಕೋಟಿಗಿಂತಲೂ ಹೆಚ್ಚು ಪದಗಳನ್ನು ಅದಕ್ಕೆ ದತ್ತಾಂಶವಾಗಿ ನೀಡಿ ಎಲ್ಎಲ್ಎಮ್ ಅನ್ನು ತರಬೇತಿಗೆ ಒಳಪಡಿಸಲಾಗುತ್ತದೆ.  ಈ ತರಬೇತಿಗೆ ಟ್ರೇನಿಂಗ್ ಎನ್ನುವ ಹೆಸರಿದೆ. ಭಾಷೆಯ ನಾಜೂಕುಗಳನ್ನು ಕಲಿಯಲು ಎಲ್ಎಲ್ಎಮ್ ಅನೇಕಾನೇಕ ಪ್ಯಾರಾಮೀಟರ್ ಗಳನ್ನು (ನಿಯತಾಂಕ) ಶೇಖರಿಸಿ ಇಟ್ಟುಕೊಳ್ಳುತ್ತದೆ. ಈ ನಿಯತಾಂಕಗಳ ಸಂಖ್ಯೆ ಹೆಚ್ಚಿದ್ದಷ್ಟೂ ಭಾಷೆಯ ಸರಿಯಾದ ಪ್ರಯೋಗವನ್ನು ಕಲಿಯುವುದು ಸಾಧ್ಯ. ಗೂಗಲ್ ಜೆಮಿನಿ  ೧.೨ ಬಿಲಿಯನ್ ನಿಯತಾಂಕಗಳನ್ನು ಬಳಸುತ್ತದೆ ಎನ್ನುತ್ತಾರೆ. ಇಷ್ಟಾದರೂ ಇಂಗ್ಲಿಷ್-ಕನ್ನಡ ಭಾಷಾಂತರ ಮಾಡುವಾಗ ಅದು ಎಷ್ಟೋ ಸಂದರ್ಭಗಳಲ್ಲಿ ಎಡವುತ್ತದೆ. ನಿಯತಾಂಕಗಳು ಹೆಚ್ಚಿದಾಗ ಇಂಥ ತಪ್ಪುಗಳು ಕಡಿಮೆಯಾಗುತ್ತವೆ. ಆದರೆ ನಿಯತಾಂಕಗಳು ಹೆಚ್ಚಿದಷ್ಟೂ ಯಂತ್ರ ತರಬೇತಿಗೆ ಬೇಕಾದ ಸಮಯ ಹೆಚ್ಚು.

ಟ್ರಾನ್ಸ್ ಫಾರ್ಮರ್

ಅಕ್ಕಪಕ್ಕದಲ್ಲಿರುವ  ಪದಗಳನ್ನು ಜೋಡಿಸಿ ಅರ್ಥ ಮಾಡಿಕೊಳ್ಳುವುದು ಯಾವುದೇ ಭಾಷೆಯನ್ನು ಕಲಿಯುವವರಿಗೆ ಇರಬೇಕಾದ ಕೌಶಲ್ಯ. ಉದಾಹರಣೆಗೆ "ಅವಳು ಸುಂದರಿ ಟೇಲರ್ಸ್ ಅಂಗಡಿಯ ಮುಂದೆ ನಿಂತಳು" ಎನ್ನುವಾಗ ಸುಂದರಿ ಎಂಬುದನ್ನು ಟೇಲರ್ಸ್ ಪದದ ಜೊತೆಗೆ ಸೇರಿಸಿ ಅದು ಒಂದು ಟೇಲರ್ ಅಂಗಡಿಯ ಹೆಸರು ಎಂದು ಅರ್ಥ ಮಾಡಿಕೊಳ್ಳುವುದು ಸೂಕ್ತ. "ಅವಳು" ಮತ್ತು "ಸುಂದರಿ" ಈ ಪದಗಳನ್ನು ಒಟ್ಟಾಗಿ ಸೇರಿಸಿದರೆ ಬರುವ ಅರ್ಥವೇ ಬೇರೆ.  ವಾಕ್ಯದಲ್ಲಿ ಸೇರಿಸುವ ಚಿಹ್ನೆಗಳನ್ನು ಗಮನಿಸುವುದು ಕೂಡಾ ಮುಖ್ಯ. 'ಅವಳು "ಸುಂದರಿ ಟೇಲರ್ಸ್" ಅಂಗಡಿಯ ಮುಂದೆ ನಿಂತಳು.' ಮತ್ತು 'ಅವಳು ಸುಂದರಿ; ಟೇಲರ್ಸ್ ಅಂಗಡಿಯ ಮುಂದೆ ನಿಂತಳು.' ಎಂದು ಬರೆದಾಗ ಯಾವ ಗೊಂದಲಕ್ಕೂ ಕಾರಣವಿಲ್ಲ.  'ಅವಳು ನೀಡಿದ ಸಿಹಿ ಹಣ್ಣುಗಳ ಮೇಲಿದ್ದ ಹಲ್ಲಿನ ಗುರುತುಗಳನ್ನು ನೋಡಿ ಲಕ್ಷ್ಮಣನು ಕ್ರುದ್ಧನಾಗಿ ಅಣ್ಣಾ, ಈ ಹಣ್ಣುಗಳನ್ನು ತಿನ್ನಬೇಡ, ಅವು ಎಂಜಲು ಮಾಡಿದ ಹಣ್ಣುಗಳು! ಎಂದು ಮೇಲೆದ್ದು ನಿಂತನು.' ಎಂಬ ವಾಕ್ಯ ಗಮನಿಸಿದರೆ ಹಲವು ವಿಷಯಗಳು ತಿಳಿಯುತ್ತವೆ.

  • ಪ್ರಶ್ನೆ:  ಲಕ್ಷ್ಮಣನಿಗೆ ಹಣ್ಣು ಕೊಟ್ಟವರು ಯಾರು?
  • ಉತ್ತರ: ಲಕ್ಷಣನಿಗೆ ಹಣ್ಣು ಕೊಟ್ಟವಳು ಶಬರಿ (ಹಿಂದಿನ ವಾಕ್ಯಗಳಿಂದ ಇದನ್ನು ಊಹಿಸಬೇಕು)
  • ಪ್ರಶ್ನೆ: ಹಣ್ಣುಗಳು ಹೇಗಿದ್ದವು?
  • ಉತ್ತರ:   ಹಣ್ಣುಗಳು ಸಿಹಿಯಾಗಿದ್ದವು
  • ಪ್ರಶ್ನೆ: ಹಣ್ಣುಗಳ ಮೇಲೆ ಏನಿದ್ದವು?
  • ಉತ್ತರ:  ಹಣ್ಣುಗಳ ಮೇಲೆ ಹಲ್ಲುಗಳ ಗುರುತುಗಳಿದ್ದವು
  • ಪ್ರಶ್ನೆ: ಹಲ್ಲುಗಳ ಗುರುತುಗಳಿದ್ದ ಹಣ್ಣುಗಳನ್ನು ನೋಡಿ ಲಕ್ಷ್ಮಣನ ಪ್ರತಿಕ್ರಿಯೆ ಏನು?
  • ಉತ್ತರ:  ಲಕ್ಷ್ಮಣನಿಗೆ ಕೋಪ ಬಂದಿತು (ಕ್ರುದ್ಧನಾಗಿ ಎಂದರೆ ಕೋಪಗೊಂಡು ಎಂಬುದನ್ನು ತಿಳಿದಿರಬೇಕು)
  • ಪ್ರಶ್ನೆ: ಲಕ್ಷ್ಮಣನು ಅಣ್ಣನಿಗೆ ಏನು ಹೇಳಿದನು?
  • ಉತ್ತರ:  ಅಣ್ಣನಿಗೆ ಹಣ್ಣು ತಿನ್ನಬೇಡವೆಂದು ಲಕ್ಷ್ಮಣನು ಹೇಳಿದನು.
  • ಪ್ರಶ್ನೆ: ಲಕ್ಷ್ಮಣನು ಕ್ರುದ್ಧನಾಗಲು ಏನು ಕಾರಣ?
  • ಉತ್ತರ: ಹಣ್ಣುಗಳು ಎಂಜಲಾದವು ಎಂಬ ವಿಷಯ.
  • ಪ್ರಶ್ನೆ: ಎಂಜಲು ಎಂದರೇನು?
  • ಉತ್ತರ: ?? (ಆಹಾರವನ್ನು ಬಾಯಿಗೆ ತಾಕಿಸಿದಾಗ ಅದು ಎಂಜಲಾಗುತ್ತದೆ.  ಇದು ವಾಕ್ಯದಿಂದ ತಿಳಿಯುವುದು ಸಾಧ್ಯವಿಲ್ಲ.


ಉದ್ದವಾದ ವಾಕ್ಯಗಳನ್ನು ಓದಿ ಅವುಗಳಲ್ಲಿರುವ ಪದಗಳ ನಡುವಣ ಸಂಬಂಧವನ್ನು ಅರ್ಥ ಮಾಡಿಕೊಂಡರೆ ಮಾತ್ರ ಎಲ್ ಎಲ್ ಎಮ್ ಗಳು ಸಮರ್ಪಕವಾಗಿ ಕೆಲಸ ಮಾಡಬಲ್ಲವು.  ಹೀಗೆ ವಾಕ್ಯಗಳನ್ನು ಅರ್ಥ ಮಾಡಿಕೊಳ್ಳಲು ಟ್ರಾನ್ಸ್ ಫಾರ್ಮರ್ ಎಂಬ ತಂತ್ರಾಂಶವನ್ನು ಬಳಸಲಾಗುತ್ತದೆ.  ಎಲ್ಎಲ್ಎಮ್ ಗಳು ವ್ಯಾಪಕವಾದ ತರಬೇತಿಗೆ ಒಳಗಾಗುತ್ತವೆ. ಎಷ್ಟೆಂದರೆ ಒಂದು ಪದವನ್ನು ಕೊಟ್ಟರೆ ಮುಂದಿನ ಪದ ಏನಿರಬಹುದೆಂದು ಊಹಿಸುವಷ್ಟು.

ಉಪಯೋಗಗಳು

ಎಲ್ಎಲ್ಎಮ್ ಗಳ ಉಪಯೋಗಗಳು ಅನೇಕ. ಒಂದು ವಿಷಯವನ್ನು ಕುರಿತು ಪ್ರಬಂಧ ಬರೆಯಲು, ಬರೆದ ಲೇಖನವನ್ನು ತಿದ್ದಲು, ಬಳಕೆದಾರರೊಂದಿಗೆ "ಮಾತಾಡಿ" ಅವರ ಸಮಸ್ಯೆಗಳನ್ನು ಬಗೆಹರಿಸಲು, ಇತ್ಯಾದಿ.  ಗಣಕತಂತ್ರಾಂಶ ಅಭಿವೃದ್ಧಿಯಲ್ಲೂ ಎಲ್ಎಲ್ಎಮ್ ಗಳ ಉಪಯೋಗ ಭಾರೀ ಪ್ರಮಾಣದಲ್ಲಿ ನಡೆಯುತ್ತಿದೆ.  ಎಲ್ಎಲ್ಎಮ್ ಗಳನ್ನು ಕೇವಲ ಒಂದು ವಿಷಯದ / ಒಂದೇ ಸಂಸ್ಥೆಗೆ ಕುರಿತಾದ ಮಾಹಿತಿಗಳನ್ನು ಬಳಸಿ ತರಬೇತಿ ನೀಡಿ ಅನೇಕ "ಇ-ಪಂಡಿತರನ್ನು" ಸೃಷ್ಟಿಸಬಹುದು. ಉದಾಹರಣೆಗೆ ಕೇವಲ ಕನ್ನಡ ಕಾದಂಬರಿಗಳನ್ನು / ವಚನಗಳನ್ನು / ದಾಸಸಾಹಿತ್ಯವನ್ನು  ಓದಿಕೊಂಡ ಒಂದು ಎಲ್ಎಲ್ಎಮ್ ಈ ವಿಷಯಗಳಲ್ಲಿ   ಆಳವಾದ  ಪಾಂಡಿತ್ಯ ಪಡೆಯಬಹುದು.  ಇದೇ ರೀತಿ ಒಂದು ಸಂಸ್ಥೆಯನ್ನು ಕುರಿತು ಆಳವಾಗಿ ತಿಳಿದುಕೊಂಡ ಒಂದು ಎಲ್ಎಲ್ಎಮ್ ಹೊಸದಾಗಿ ಸೇರಿಕೊಂಡ ಉದ್ಯೋಗಿಗೆ ಸಂಭಾಷಣೆಯ ರೂಪದಲ್ಲಿ ಸಹಾಯ ನೀಡಬಹುದು.  ಇದಕ್ಕೆ ಫೈನ್ ಟ್ಯೂನಿಂಗ್ ಎನ್ನುವ ಹೆಸರೂ ಇದೆ.

ಉದಾಹರಣೆಗಳು

  • ಓಪನ್ ಏಐ ಸಂಸ್ಥೆಯ  ಜಿಪಿಟಿ (ಜೆನೆರೇಟಿವ್ ಪ್ರೀಟ್ರೇನ್ಡ್ ಟ್ರಾನ್ಸ್ಫಾರ್ಮರ್)
  • ಗೂಗಲ್ ಸಂಸ್ಥೆಯ ಬರ್ಟ್ (BERT, ಬೈಡೈರೆಕ್ಷನಲ್ ಎನ್ ಕೋಡರ್ ರೆಪ್ರೆಸೆಂಟೇಷನ್ಸ್ ಫ್ರಮ್ ಟ್ರಾನ್ಸ್ಫಾರ್ಮರ್ಸ್)
  • ಗೂಗಲ್ ಸಂಸ್ಥೆಯ T೫ (ಟೆಕ್ಸ್ಟ್ ಟು ಟೆಕ್ಸ್ಟ್ ಟ್ರಾನ್ಸ್ಫರ್ ಟ್ರಾನ್ಸ್ಫಾರ್ಮರ್)


ಸವಾಲುಗಳು  

ಎಲ್ಎಲ್ಎಮ್ ಗಳ ಡೇಟಾ ಹಸಿವು ಅಪಾರವಾದದ್ದು. ಉದಾಹರಣೆಗೆ ಜಿಪಿಟಿ-೩ ತರಬೇತಿಗೆ ೫೭೦ ಗಿಗಾಬೈಟ್ ದತ್ತಾಂಶ ಬಳಸಲಾಗಿದೆ ಅರ್ಥಾತ್   ನೂರಾರು ಸಹಸ್ರ ಪುಸ್ತಕಗಳ ಮಾಹಿತಿ.   ಇದಕ್ಕೆ ಕಾರಣವೆಂದರೆ ಈ ತಂತ್ರಾಂಶಗಳಲ್ಲಿ ಬಳಸಲಾಗುವ ಪ್ಯಾರಾಮೀಟರ್ ಸಂಖ್ಯೆ ಬೃಹತ್ ಗಾತ್ರದ್ದು. ಜಿಪಿಟಿ-೩ ಸುಮಾರು ೧೭೫ ಬಿಲಿಯನ್ ಪ್ಯಾರಾಮೀಟರ್ ಬಳಸುತ್ತದೆ. ಜಿಪಿಟಿ-೪ ಒಂದು ಟ್ರಿಲಿಯನ್ ಗಿಂತಲೂ ಹೆಚ್ಚು ಪ್ಯಾರಾಮೀಟರ್ ಬಳಸುತ್ತದೆ.  ಮಾನವನ ಮಿದುಳಿನಲ್ಲಿ ೮೬ ಬಿಲಿಯನ್ ನ್ಯೂರಾನ್ ಕೋಶಗಳಿವೆ ಎನ್ನಲಾಗುತ್ತದೆ. ಅದಕ್ಕೆ ಹೋಲಿಸಿದರೆ ಮೇಲೆ ಹೇಳಿದ ಪ್ಯಾರಾಮೀಟರ್ ಸಂಖ್ಯೆಗಳು  ಬಹಳ ದೊಡ್ಡವು.   ಎಲ್ಎಲ್ಎಮ್ ಗಳು ಬೇಡುವ  ವಿದ್ಯುತ್ ಚೈತನ್ಯ ಕೂಡಾ ಬಹಳ ಬೃಹತ್ ಗಾತ್ರದ್ದು. ಒಂದು ಎಲೆಕ್ಟ್ರಿಕ್ ಕಾರನ್ನು ಭೂಮಿಯ ಸುತ್ತಲೂ ಹಲವಾರು ಸಲ ಓಡಿಸಲು ಎಷ್ಟು ವಿದ್ಯುತ್ ಚೈತನ್ಯದ ಅಗತ್ಯವಿದೆಯೋ ಅಷ್ಟು ಎಂದು ಒಂದು ಅಂದಾಜಿದೆ.  ಜಿಪಿಟಿ-೩ ಬಳಸುವ ವಿದ್ಯುತ್ ಸುಮಾರು ೧೩೦೦ ಮೆಗಾವಾಟ್ ಅವರ್ - ಇಷ್ಟು ವಿದ್ಯುತ್ ಬಳಸಿ ಸುಮಾರು ೧೫,೦೦೦ ಜನ ಒಂದು ತಿಂಗಳು ಜೀವನ ಮಾಡಬಹುದು.  ಎಲ್ಎಲ್ಎಮ್ ಗಳು ಪರಿಸರದ ಮೇಲೆ ಬೀರುತ್ತಿರುವ ಪರಿಣಾಮ ಕುರಿತು ಕೆಲವರು ಹುಬ್ಬೇರಿಸಿದ್ದಾರೆ.

ಯಾವುದಕ್ಕಾಗಿ ಎಲ್ಎಲ್ಎಮ್ ಗಳಿಗೆ   ತರಬೇತಿ ನೀಡಲಾಯಿತೋ ಅದನ್ನು ಮೀರಿ ಎಲ್ಎಲ್ಎಮ್ ಬೆಳೆಯುವ ಸಾಧ್ಯತೆಗಳೂ ಇವೆ. ಉದಾಹರಣೆಗೆ ಜಿಪಿಟಿ-೩ ಚದುರಂಗದ ಆಟ ಆಡಬಲ್ಲದು.  ಪದಗಳನ್ನು ಊಹಿಸಿ ವಾಕ್ಯಗಳನ್ನು ರಚಿಸುವಾಗ ಎಲ್ಎಲ್ಎಮ್ಗಳು ಕೆಲವೊಮ್ಮೆ ವಾಸ್ತವದಿಂದ ದೂರ ಸರಿದು ದಂತಕಥೆಗಳನ್ನು ಕಟ್ಟಬಹುದು. ಇದಕ್ಕೆ ಹಾಲ್ಯುಸಿನೇಷನ್ ಎನ್ನುತ್ತಾರೆ.  ವಿಶೇಷವೆಂದರೆ ಎಲ್ಎಲ್ಎಮ್ ಗಳು ಸೃಜನಶೀಲತೆಯನ್ನು ಮೆರೆಯಬಲ್ಲವು. ಅವು ಕಥೆ, ಕವಿತೆ, ಕಾದಂಬರಿಗಳನ್ನು ಬರೆಯಬಲ್ಲವು.   ಇಂಥ ಲೇಖಕನ ಶೈಲಿಯಲ್ಲಿ ಬರೆದುಕೊಡು ಎಂದರೆ ಅದನ್ನು ಮಾಡಬಲ್ಲವು.  ಒಂದು ಎಲ್ಎಲ್ಎಮ್ ಬರೆದ ಕಥೆಯೊಂದು ಈಗಾಗಲೇ ಒಂದು ಸಾಹಿತ್ಯ ಪತ್ರಿಕೆಯಲ್ಲಿ ಅಚ್ಚಾಗಿದೆ.

ಎಲ್ಎಲ್ಎಮ್ ಗಳೊಂದಿಗೆ ಸಂಭಾಷಣೆ ನಡೆಸಲು ಮನುಷ್ಯರು ನೀಡುವ ವಾಕ್ಯ ಸರಣಿಗಳಿಗೆ ಪ್ರಾಂಪ್ಟ್ (prompt) ಎಂಬ ಹೆಸರಿದೆ. ಸರಿಯಾದ ಪ್ರಾಂಪ್ಟ್ ಇಲ್ಲದಿದ್ದರೆ ಎಲ್ಎಲ್ಎಮ್ ನೀಡುವ ಮಾಹಿತಿ ಅಷ್ಟೇನೂ ಉಪಯುಕ್ತವಾಗಿರಲಾರದು.   ಈಗ ಪ್ರಾಂಪ್ಟ್ ಗಳನ್ನು ನೀಡುವ ಕಲೆಗೆ  ಪ್ರಾಂಪ್ಟ್ ಇಂಜಿನಿಯರಿಂಗ್ (prompt engineering) ಎನ್ನುವ ಹೆಸರು ಬಂದಿದೆ.

ಉಲ್ಲೇಖಗಳು

ಬದಲಾಯಿಸಿ
  1. "Large Language Model".