Komposisi Fungsi Nonlinier Antar Ruang Vektor Berdimensi Tinggi Dalam Arsitektur Neural Network

Authors

  • Lutfan Anas Zahir Universitas Tulungagung
  • Danang Wijanarko Lutfan Anas Zahir
  • Danang Hadi Nugroho Universitas Tulungagung

DOI:

https://doi.org/10.30605/proximal.v8i2.6538

Keywords:

neural network, transformasi non linear, geometri data, ruang vektor berdimensi tinggi, interpretabilitas model

Abstract

Penelitian ini menyajikan pendekatan konseptual dan eksperimental dalam memodelkan jaringan saraf tiruan (neural network) sebagai suatu transformasi nonlinier berlapis antar ruang vektor berdimensi tinggi. Dengan mendasarkan pada kerangka matematis komposisi fungsi linier dan aktivasi nonlinier, studi ini memetakan bagaimana representasi data secara spasial berubah melalui setiap lapisan jaringan. Menggunakan data sintetis berdimensi tinggi dan arsitektur multilayer perceptron (MLP), transformasi internal jaringan dianalisis baik secara visual melalui proyeksi PCA dan t-SNE, maupun secara kuantitatif melalui pengukuran perubahan metrik spasial. Hasil eksperimen menunjukkan bahwa jaringan saraf tidak hanya berfungsi sebagai aproksimator fungsi, tetapi juga secara aktif membentuk ulang geometri manifold data untuk meningkatkan keterpisahan antar kelas. Fungsi aktivasi seperti ReLU dan tanh terbukti memiliki dampak signifikan terhadap struktur representasi, dengan ReLU menghasilkan sparsifikasi spasial yang lebih kuat. Temuan ini mendemonstrasikan bahwa pemahaman terhadap dinamika spasial dalam neural network dapat memberikan fondasi yang lebih transparan dalam interpretasi model, serta membuka arah baru dalam riset interpretabilitas deep learning berbasis pendekatan matematis dan geometris.

Downloads

Download data is not yet available.

References

Cybenko, G. (1989). Approximation by superpositions of a sigmoidal function. Mathematics of Control, Signals and Systems, 2(4), 303–314.

Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. MIT Press.

https://www.deeplearningbook.org

Hornik, K. (1991). Approximation capabilities of multilayer feedforward networks. Neural Networks, 4(2), 251–257.

LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436–444.

https://doi.org/10.1038/nature14539

Montavon, G., Samek, W., & Müller, K.-R. (2018). Methods for interpreting and understanding deep neural networks. Digital Signal Processing, 73, 1–15.

https://doi.org/10.1016/j.dsp.2017.10.011

Olah, C., Satyanarayan, A., Johnson, I., et al. (2018). The building blocks of interpretability. Distill. https://distill.pub/2018/building-blocks/

Poggio, T., & Mhaskar, H. (2017). Deep learning: Mathematical foundations and theoretical perspectives. Annual Review of Statistics and Its Application, 4(1), 193–220.

https://doi.org/10.1146/annurev-statistics-060116-054711

Schmidhuber, J. (2015). Deep learning in neural networks: An overview. Neural Networks, 61, 85–117.

https://doi.org/10.1016/j.neunet.2014.09.003

Zhang, Q., Yang, L., & Chen, Z. (2020). Understanding deep neural networks from geometric perspectives: A review. Neurocomputing, 417, 418–432.

https://doi.org/10.1016/j.neucom.2020.07.033

Downloads

Published

2025-07-22

How to Cite

Zahir, L. A., Wijanarko, D., & Nugroho, D. H. (2025). Komposisi Fungsi Nonlinier Antar Ruang Vektor Berdimensi Tinggi Dalam Arsitektur Neural Network. Proximal: Jurnal Penelitian Matematika Dan Pendidikan Matematika, 8(2), 858–865. https://doi.org/10.30605/proximal.v8i2.6538