| |

Gemini – споровете за ИИ продължават

ekranna snimka 2024 10 26 100601

 

Приложенията Gemini

Google пуска нов модел на ИИ (изкуствен интелект) – Gemini, който е тестван в 57 тематични области. В Европейското икономическо пространство приложенията Gemini се предоставят от Google. Компанията го определя като нова крачка напред, нов стандарт в развитието на ИИ, който може да генерира и разпознава текст, звук и изображения и да интегрира във вече съществуващите инструменти на Google. Gemini може да създава Google Документи, да оказва помощ в програмирането, а ако кодът е предмет на лиценз за отворен код, Gemini също цитира източници. Най-големият мощен модел на AI е много добър в откриването на закономерности и гъвкавост да избира вероятни модели, които съответстват на образци, но потребителите споделят, че се нуждае от четене и запис в по-добра структура от данни. И при тази технология съществува опасност от вреди, което очертава все по-належащата нужда от приемане на законодателство за ИИ. Приложението е достъпно за изтегляне в много държави. Пълният списък на поддържаните езици може да се види тук:  https://support.google.com/?p=gemini_app_requirements_android

Не въвеждайте поверителна информация

Настройката „Активност в приложенията Gemini“ в Google профила на потребителя се съхранява за период от 18 месеца, който може да бъде променен на 3 или 36 месеца. Проверяващите предупреждават, че не трябва да се въвежда поверителна информация в разговорите, защото данните могат да се използват от Google с цел подобряване на продуктите на компанията. Настройките могат да се конфигурират така, че да се предпазват личните данни и да се защитава поверителността на информацията (като се посети профила в Google). Създателите умишлено са ограничили възможността да се съхранява контекст и потребителят може да се учуди, че Gemini не знае какво е казал по-рано в разговора.

Грешна информация

Спорните въпроси при приложенията Gemini са свързани и с факта, че това е нова технология, която е в процес на развитие и информацията, която предоставят може да е неточна или неуместна. Тя трябва да бъде проверена задължително, ако е свързана с професионални съвети (правни, медицински, финансови). Като останалите AI Gemini не се е разделил с възможността за „халюцинация“ (като термин това означава, че предложената информация за факти, хора и статистики изглежда като истина, но не е). За да не се допускат грешки, е необходима допълнителна проверка от друг източник. Има възможност Gemini да каже и нещо обидно. За да се подобри Gemini Google разчита на потребителите, които могат да подават сигнали за възникнали проблеми. При „халюцинация“ потребителите може да кликнат върху бутона „Не одобрявам“ и да изпратят отзив.

 

Снимка: pixabay

 

 

 

Подобни статии