Metaheurisztikus kereső algoritmusok hiperparamétereinek beállítása szimuláció alapú mérnöki optimalizálási feladatokra
Metaheuristic search algorithm hyperparameter tuning for simulation-based engineering optimization tasks
Keywords:
hyperparameter tuning, metaheuristic optimization algorithm, machine learning, /, hiperparaméter adaptálás, metaheurisztikus kereső eljárás, gépi tanulásAbstract
Regardless of how the objective function behaves, metaheuristic search techniques can be used to approach the optimal solution; however, task-specific hyperparameter selection is required. The computational cost of the simulation-based objective function evaluation makes it impossible to solve this process in time. Artificial intelligence tools can be used to increase automation and decrease the amount of time needed for engineering optimization tasks. The developed procedure can reduce uncertainty and increase the design cycle's efficiency, which together accelerate innovation.
Kivonat
A metaheurisztikus kereső eljárások a célfüggvény viselkedésétől függetlenül alkalmasak az optimum megközelítésére, azonban ehhez a hiperparamétereket feladatspecifikusan kell megválasztani. Ez a folyamat a szimuláció alapú célfüggvény költsége miatt belátható időn belül nem megoldható. A mérnöki optimalizálási feladat időszükségletének csökkentése és az automatizáltsági fokának növelése a mesterséges intelligencia eszközeinek alkalmazásával elérhető. Az így kidolgozott folyamattal a tervezési ciklus hatékonysága növelhető, míg bizonytalansága csökkenthető melyek együttes hatása az innováció felgyorsítása.
References
Forrester, A.I.J.; Sóbester, A.; Keane, A.J. Engineering Design via Surrogate Modelling; Wiley: Oxford, UK, 2008; ISBN 9780470060681.
Chopard, B.; Tomassini, M. An Introduction to Metaheuristics for Optimization; Natural Computing Series; Springer International Publishing: Cham, 2018; ISBN 978-3-319-93072-5.
David E. Goldberg Genetic Algorithms in Search, Optimization and Machine Learning; Addison-Wesley Longman Publishing Co., Inc.: Boston, MA, USA, 1989; ISBN 0201157675.
Das, S.; Suganthan, P.N. Differential Evolution: A Survey of the State-of-the-Art. IEEE Trans. Evol. Comput. 2011, 15, 4–31, doi:10.1109/TEVC.2010.2059031.
Kirkpatrick, S.; Gelatt, C.D.; Vecchi, M.P. Optimization by Simulated Annealing. Science (80-. ). 1983, 220, 671–680, doi:10.1126/science.220.4598.671.
Jackson, W.G.; Ozcan, E.; John, R.I. Tuning a Simulated Annealing Metaheuristic for Cross-Domain Search. In Proceedings of the 2017 IEEE Congress on Evolutionary Computation (CEC); IEEE, June 2017; pp. 1055–1062.
Fotuhi, F. Optimal Determination of Simulated Annealing Parameters Using TOPSIS. In Proceedings of the 2011 IEEE International Conference on Industrial Engineering and Engineering Management; IEEE, December 2011; pp. 46–50.
Surjanovic, S.; Bingham, D. Optimization Test Functions and Datasets Available online: https://www.sfu.ca/~ssurjano/optimization.html (Utolsó letöltés: 2025.01.17).
Huri, D.; Mankovits, T. Surrogate Model-Based Parameter Tuning of Simulated Annealing Algorithm for the Shape Optimization of Automotive Rubber Bumpers. Appl. Sci. 2022, 12, 5451, doi:10.3390/app12115451.
Burkov, A. The Hundred-Page Machine Learning Book; 2019; ISBN 9781999579500.
Kubat, M. An Introduction to Machine Learning; Springer International Publishing: Cham, 2017; ISBN 978-3-319-63912-3.
Drucker•, H.; Burges, C.J.C.; Kaufman, L.; Smola••, A.; Vapoik, V. Support Vector Regression Machines. In Proceedings of the Advances in neural information processing systems; MIT Press: Cambridge, 1997; pp. 155–161.
Neapolitan, R.E.; Jiang, X. Neural Networks and Deep Learning. In Artificial Intelligence; Chapman and Hall/CRC, 2018; pp. 389–411 ISBN 9783319944623.
Hinkelmann, K. Design and Analysis of Experiments; Hinkelmann, K., Ed.; Wiley Series in Probability and Statistics; John Wiley & Sons, Inc.: Hoboken, NJ, USA, 2012; Vol. 3; ISBN 9781118147634.