ПРО ОСОБЛИВОСТІ ФОРМУВАННЯ ТРИПЛЕТІВ ДЛЯ НАВЧАННЯ СІАМСЬКОЇ НЕЙРОННОЇ МЕРЕЖІ
DOI:
https://doi.org/10.26906/SUNZ.2025.1.134-137Ключові слова:
сіамська нейронна мережа, триплет, вкладення, прототип вкладень кластера, тестування нейронної мережіАнотація
Предмет дослідження – процеси розпізнавання зображень із застосуванням нейронних мереж. Додаток для розпізнавання ґрунтується на архітектурі сіамської мережі з триплетною функцією втрат і зі згортковою
нейронною підмережею. Мета статті – обґрунтування вибору квазівипадкової N-вимірної послідовності векторів як
вкладень для навчання сіамської нейронної мережі з триплетною функцією втрат та оцінка отриманих після навчання характеристик кластерів вкладень зображень цифр. Завдання: експериментальна оцінка отриманих після навчання сіамської нейронної мережі з триплетною функцією втрат характеристик кластерів вкладень зображень цифр.
Методи досліджень: метод прямого пошуку для функцій з кількома змінними для визначення оцінок N-вимірних
векторних представлень вхідних зображень. Результати досліджень. Проведено дослідження квазівипадкової Nвимірної послідовності векторів як вкладень для навчання сіамської нейронної мережі з триплетною функцією втрат
та її тестування. Показано, що запропоновані методи визначення N-вимірних векторних представлень вхідних зображень є робастними та значно зменшують обсяг обчислень під час навчання. Під час тестування використовувалися зображення рукописних цифр із тестового набору MNIST. Визначено, що використання квазівипадкової Nвимірної послідовності векторів як вкладень зображень під час навчання сіамської нейронної мережі з триплетною
функцією втрат дає змогу значно поліпшити характеристики отриманих кластерів вкладень зображень. Висновки.
Результати, отримані в роботі, можуть бути використані при порівняльній оцінці та визначенні N-вимірних векторних представлень різних класів вхідних зображень з метою їх розпізнавання з використанням архітектури сіамської
нейронної мережі з триплетною функцією втрат.
Завантаження
Посилання
1. Chicco D. Siamese Neural Networks: An Overview. Artificial Neural Networks. MIMB, vol. 2190, 2020, pp. 73-94. URL:https://link.springer.com/protocol/10.1007/978-1-0716-0826-5_3
2. Шостак А. В. Про особливості формування дескрипторів у сіамській нейронній мережі. Системи управління, навігації та зв'язку, Полтава: НУ ПП, 2021, вип. 4(66). С. 91-96. DOI: https://doi.org/10.26906/SUNZ.2021.4.079
3. Шостак А. В. Про особливості формування вхідних даних у сіамській нейронній мережі. Системи управління, навігації та зв'язку, Полтава: НУ ПП, 2024, вип. 3(77). С. 193-195. DOI: 10.26906/SUNZ.2024.3.193
4. Schroff F., Kalenichenko D., Philbin J. FaceNet: A unified embedding for face recognition and clustering. Proceedings of the IEEE CSC on CVPR, 2015, рp. 815-823.
5. Craeymeersch Е. One Shot learning, Siamese networks and Triplet Loss with Keras. URL: https://medium.com/@crimy/oneshot-learning-siamese-networks-and-triplet-loss-with-keras-2885ed022352
6. Trotter С. How To Train Your Siamese Neural Network. URL: https://towardsdatascience.com/how-to-train-your-siameseneural-network-4c6da3259463
7. Owen A.B. On Dropping the First Sobol’ Point. In: Keller, A. (eds) Monte Carlo and Quasi-Monte Carlo Methods. MCQMC 2020. Springer Proc. in Mathematics & Statistics, vol 387. Springer, Cham. DOI: https://doi.org/10.1007/978-3-030-98319-2_4
8. The Mnist database of handwritten digits. URL: http://yann.lecun.com/exdb/mnist/
9. Hernandez-Orallo J. ROC curves for regression. Pattern Recognition. 2013. vol. 46, no. 12. pp. 3395–3411. doi:
10. 1016/j.patcog.2013.06.014 10. Van der Maaten L.J.P. Accelerating t-SNE using Tree-Based Algorithms. Journal of Machine Learning Research 15(Oct). – 2014. - C. 3221-3245.
Downloads
Опубліковано
Номер
Розділ
Ліцензія

Ця робота ліцензується відповідно до Creative Commons Attribution-NonCommercial 4.0 International License.