
Откакто DeepSeek-R1 влезе в публичното пространство, генерираното от него съдържание често се налага в китайските социални медии. Теми като „Коментари #DeepSeek за работни места, които AI не може да замени“ и „#DeepSeek препоръчва най-подходящите за живеене градове в Китай“ предизвикаха широка дискусия. Междувременно организации в цялото китайско общество се втурнаха да възприемат новите технологии, които DeepSeek помогна да насочат вниманието. Област Futian в Шенжен наскоро въведе 70 “AI цифрови служители”, разработен с помощта на DeepSeek, демонстрирайки нарастващото внедряване и широко приложение на AI.
И все пак, докато обществото възприема тази нова вълна от иновации, се появява обезпокоителен модел: генерираната от AI дезинформация залива публичните мрежи. Един вирусен случай включва потребител на Weibo, който открити че Tiger Brokers, базирана в Пекин финтех фирма, е интегрирала DeepSeek за финансов анализ. От любопитство потребителят го тества на Alibaba, което подтиква AI да анализира как логиката му за оценяване се измества от електронна търговия към технологична компания. Една от аргументите на AI е, че вътрешният и международният бизнес за електронна търговия на Alibaba е допринесъл с 55% от приходите, достигайки 80%, докато делът на приходите на групата за облачно разузнаване надхвърля 20%. Изненадан от тези цифри, потребителят ги сравнява с финансовите отчети на Alibaba, само за да открие, че AI е изфабрикувал данните.
Докато DeepSeek-R1, модел, фокусиран върху разсъжденията, работи подобно на конвенционалните модели при основни задачи, неговият подход всъщност се различава значително. Стандартните модели разчитат на съвпадение на шаблони за бързи преводи или резюмета. Моделите за разсъждение обаче активират многоетапни логически вериги дори за прости заявки – процес, който подобрява обяснимостта, но рискува „прекомерно мислене“.
Тестовете показват, че тези разширени вериги на разсъждения повишават рисковете от халюцинации. The Vectara HHEM бенчмаркът разкрива, че степента на халюцинации на DeepSeek-R1 е 14,3%, почти четири пъти по-висока от 3,9% на DeepSeek-V3. Това несъответствие вероятно произтича от обучителната рамка на R1, която дава приоритет на приятните за потребителя резултати чрез механизми за възнаграждение и наказание, понякога измисляйки съдържание, за да потвърди потребителските пристрастия.
AI системите не съхраняват факти – те предвиждат правдоподобни текстови последователности. Тяхната основна функция не е проверка на истината, а генериране на статистически вероятни продължения. В творчески контекст това означава свободно смесване на исторически записи с изфабрикувани разкази, за да се поддържа съгласуваност на историята. Такива механизми по своята същност крият риск от изкривяване на фактите. Докато съдържанието, генерирано от изкуствен интелект, наводнява онлайн пространствата, възниква опасна верига за обратна връзка: синтетичните резултати все повече се изтриват обратно в набори от данни за обучение. Това разрушава границата между автентична и изкуствена информация, поставяйки под въпрос общественото разбиране. Областите с висока ангажираност – политика, история, култура, развлечения – са изправени пред особени рискове от замърсяване.
Справянето с тази криза изисква отчетност. Разработчиците на AI трябва да прилагат предпазни мерки като цифрови водни знаци, докато създателите на съдържание трябва ясно да маркират непроверените изходи на AI. В противен случай разпространението на синтетична дезинформация, усилено от ефективността на ИИ в промишлен мащаб, постоянно ще тества способността на обществото да отделя фактите от алгоритмичната измислица.
Свързани
Нашия източник е Българо-Китайска Търговско-промишлена палaта