
/
RSS Feed
Говорещи компютри: докъде сме през 2020 и какво следва
С участието на Преслав Наков, старши научен сътрудник в Катарския институт за компютърни изследвания „Хамад бин Халифа Юнивърсити“. Възпитаник на СУ, Калифорнийския университет в Бъркли, БАН и Националния Университет на Сингапур в областта на компютърната лингвистика. Водещ световен учен и в областта на фалшивите новини.
Теми от епизода:
- Мрежата като източник на тренировъчни набори от данни за нуждите на комютърната линвистика
- Как компютърната лингвистика се развива от Студената война насам
- Overfitting на моделите: има ли ЕС конкурентно предимство пред Китай и САЩ в резултат на GDPR
- Статистическия подход vs. науката лингвистика
- Достигаме ли лимита на GPT-2/3 подхода или „колкото повече, толкова повече“ остава валидно?
- Рискуваме ли да загубим от богатството на езика – диалекти, идиоми – заради статистическото преимущество на мнозинството?
- Качеството срещу количеството: защо големите залагат на второто
Бележки и допълнителни четива:
- [00:20] https://en.wikipedia.org/wiki/Frederick_Jelinek
- [00:22] https://www.zdnet.com/article/openais-gigantic-gpt-3-hints-at-the-limits-of-language-models-for-ai/
- [23:30] Пример за китайската икономика и непосилния ѝ растеж са призрачните градове
- [35:30] Примери за предпоставеност в моделите за машинно обучение може да намерите тук
- [36:00] И няколко фрапантни примера за расово пристрастие и дискриминация
- [46:00] Повече за бота Тай на Майкрософт
- [1:04:00] Платформата Дуолинго
- [1:07:30] Domain shift и hallucinations в моделите за машинен превод
Форма за обратна връзка
Бихме се радвали да разберем какво Ви хареса и какво смятате, че трябва да променим тук.
Хареса ли ви епизода?
Можете да научите повече за нас, както и да чуете нашите предишни епизоди тук, тук и тук.
Последвайте ни в Apple Podcasts, Google Podcast, Spotify и Pocket Cast.
Подкрепете подкаста в Patreon.