Les méthodes disponibles dans les modèles additifs généralisés sont des implémentations de techniques développées et popularisées par Hastie et Tibshirani (1990). Une description détaillée de ces techniques et des méthodes connexes, les algorithmes utilisés pour s`adapter à ces modèles, et les discussions de recherches récentes dans ce domaine de la modélisation statistique peuvent également être trouvées dans Schimek (2000). La fonction de régression (F (x) ) est modifiée dans les modèles additifs généralisés, et ce n`est qu`en raison de cette transformation que les GAMs sont mieux en termes de généralisation à des données aléatoires invisibles, s`adapte aux données de manière très fluide et flexible sans ajouter de complexités ou beaucoup le modèle la plupart du temps. De nombreuses données dans les sciences de l`environnement ne correspondent pas à des modèles linéaires simples et sont mieux décrites par les «modèles Wiggly», également connu sous le nom de modèles additifs généralisés (GAMs). Le seul contrôle supplémentaire que les GAMs introduisent est la nécessité de vérifier que les degrés de liberté choisis sont appropriés. Ceci est particulièrement aigu lorsque vous utilisez des méthodes qui n`évaluent pas automatiquement la fluidité des composants du modèle. Lors de l`utilisation de méthodes avec sélection automatique des paramètres de lissage, il est encore nécessaire de vérifier que le choix de la dimension de base n`a pas été restrictivement faible, bien que si les degrés effectifs de la liberté d`une estimation de terme est confortablement en dessous de sa base dimension, alors cela est peu probable. Dans tous les cas, la vérification de f j (x j) {displaystyle f_ {j} (x_ {j})} est basée sur l`examen du modèle dans les valeurs résiduelles par rapport à x j {displaystyle x_ {j}}. Cela peut être fait en utilisant des résidus partiels superposées sur le tracé de f ^ j (x j) {displaystyle {hat {f}} _ {j} (x_ {j})}, ou en utilisant la permutation des résidus pour construire des tests pour le motif résiduel (comme dans la fonction`GAM. Check`dans le paquet R`mgcv`). Maintenant, nous pouvons également adapter un modèle d`additif généralisé en utilisant la fonction LM () dans R, qui signifie modèle linéaire. and puis nous pouvons ajuster les fonctions non linéaires sur différentes variables (x_i ) en utilisant la fonction NS () ou BS () qui signifie splines naturelles et splines cubes et ajouter le modèle de régression.

Les parcelles résiduelles ont une tendance très étrange à la hausse et à la chute-clairement il ya une certaine structure de dépendance (et nous pouvons probablement deviner qu`il a quelque chose à voir avec les fluctuations intra-annuelles). Essayons à nouveau, et introduire quelque chose appelé un plus lisse cyclique. [y = beta_0 + f_ {mathrm{intrannual}} (mois) + f_ {mathrm{Trend}} (Time) + varepsilon, quad varepsilon sim N (0, sigma ^ 2) ] le terme cyclique lisse, (f_ {mathrm{intrannual}} (month) ), est composé de fonctions de base tout comme nous l`avons vu déjà, sauf que les points finaux de la spline sont contraints à être égaux-ce qui est logique lorsque nous modélisons une variable qui est cyclique (au cours des mois/années). Et maintenant pour prouver que vous pouvez passer des fonctions de base et les coefficients estimés au terme lisse ajusté. Encore une fois noter que cela est simplifié ici parce que le modèle est juste un terme lisse. Si vous aviez plus de termes, nous aurions besoin d`additionner tous les termes dans le prédicteur linéaire. qui correspond à un modèle avec un seul terme lisse pour le temps.