Automa'c ¡Genera'on ¡Control ¡ Using ¡Ar'ficial ¡Neural ¡Networks ¡ By-‑ ¡Harkirat ¡Singh ¡Choong ¡
Introduc'on ¡
What ¡is ¡Automa'c ¡Genera'on ¡Control ¡ (AGC)? ¡ • There ¡is ¡mismatch ¡between ¡generated ¡power ¡and ¡load ¡demand. ¡ • Imbalance ¡in ¡Real ¡power ¡ à ¡frequency ¡devia'ons ¡ ¡and ¡Reac've ¡power à ¡voltage ¡devia'ons ¡ • Load ¡frequency ¡and ¡excita'on ¡voltage ¡control ¡are ¡non ¡ ¡interac've ¡ and ¡can ¡be ¡modeled ¡independently. ¡ • Excita'on ¡voltage ¡control ¡is ¡fast ¡ac'ng ¡('me ¡constant ¡is ¡of ¡ generator ¡field ¡only) ¡while ¡frequency ¡control ¡is ¡slow ¡ac'ng ¡('me ¡ constant ¡is ¡of ¡turbine ¡and ¡generator ¡moment ¡of ¡iner'a). ¡
• AGC ¡operates ¡to ¡balance ¡the ¡genera'on ¡and ¡ load ¡in ¡power ¡systems ¡at ¡minimum ¡cost. ¡ • Performance ¡of ¡AGC ¡depends ¡on ¡how ¡quickly ¡ and ¡effec'vely ¡genera'ng ¡units ¡respond ¡to ¡its ¡ commands. ¡ • Since ¡frequency ¡ ∝ ¡speed ¡of ¡generator, ¡ problem ¡of ¡frequency ¡control ¡can ¡be ¡ converted ¡to ¡speed ¡control ¡problem ¡of ¡the ¡ generator. ¡(governing ¡mechanism ¡in ¡fig.) ¡
Block ¡diagram ¡
Propor'onal ¡plus ¡Integral ¡Control ¡ ¡ ¡
Func'onal ¡diagram ¡of ¡a ¡typical ¡AGC ¡ system ¡
Neural ¡Networks ¡ ● Ar'ficial ¡ neural ¡ network ¡ (ANN) ¡ is ¡ a ¡ machine ¡ learning ¡ approach ¡that ¡models ¡human ¡brain ¡and ¡consists ¡of ¡a ¡number ¡ of ¡ar'ficial ¡neurons. ¡ ● Neuron ¡ in ¡ ANNs ¡ tend ¡ to ¡ have ¡ fewer ¡ connec'ons ¡ than ¡ biological ¡neurons. ¡ ● Each ¡neuron ¡in ¡ANN ¡receives ¡a ¡number ¡of ¡inputs. ¡ ¡ ● An ¡ac'va'on ¡func'on ¡is ¡applied ¡to ¡these ¡inputs ¡which ¡results ¡ in ¡ac'va'on ¡level ¡of ¡neuron ¡(output ¡value ¡of ¡the ¡neuron). ¡ ● Knowledge ¡ about ¡ the ¡ learning ¡ task ¡ is ¡ given ¡ in ¡ the ¡ form ¡ of ¡ examples ¡called ¡training ¡examples. ¡
● An ¡Ar'ficial ¡Neural ¡Network ¡is ¡specified ¡by: ¡ − neuron ¡model: ¡the ¡informa'on ¡processing ¡unit ¡of ¡the ¡NN, ¡ − an ¡ architecture: ¡ a ¡ set ¡ of ¡ neurons ¡ and ¡ links ¡ connec'ng ¡ neurons. ¡Each ¡link ¡has ¡a ¡weight, ¡ − a ¡ learning ¡ algorithm: ¡ used ¡ for ¡ training ¡ the ¡ NN ¡ by ¡ modifying ¡ the ¡ weights ¡ in ¡ order ¡ to ¡ model ¡ a ¡ par'cular ¡ learning ¡task ¡correctly ¡on ¡the ¡training ¡examples. ¡ ● The ¡aim ¡is ¡to ¡obtain ¡a ¡NN ¡that ¡is ¡trained ¡and ¡generalizes ¡well. ¡ ● It ¡should ¡behaves ¡correctly ¡on ¡new ¡instances ¡of ¡the ¡learning ¡ task. ¡
Neuron ¡ ● The ¡neuron ¡is ¡the ¡basic ¡informa'on ¡processing ¡unit ¡of ¡a ¡ NN. ¡It ¡consists ¡of: ¡ 1 A ¡set ¡of ¡links, ¡describing ¡the ¡neuron ¡inputs, ¡with ¡ weights ¡ ¡W 1 , ¡W 2 , ¡…, ¡W m ¡ 2 An ¡adder ¡func'on ¡(linear ¡combiner) ¡for ¡compu'ng ¡the ¡ weighted ¡sum ¡of ¡the ¡inputs: ¡ ¡u ¡= ¡ ∑ ¡ ¡w j ¡x j ¡ 3 Ac'va'on ¡func'on ¡ φ for ¡limi'ng ¡the ¡amplitude ¡of ¡the ¡ neuron ¡output. ¡ ¡ ¡ ¡ ¡y= ¡ φ ( u+b) ¡, ¡‘b’ ¡is ¡the ¡bias. ¡
The ¡Neuron ¡Diagram ¡ Bias b x 1 w 1 Activation Induced function Field Output ( − ) v ϕ ∑ y x 2 w 2 Input values Summing function x m w m weights
Bias ¡of ¡a ¡Neuron ¡ ¡ ● The ¡bias ¡ b ¡has ¡the ¡effect ¡of ¡applying ¡a ¡transforma'on ¡to ¡ the ¡weighted ¡sum ¡ u ¡ v ¡= ¡u ¡+ ¡b ¡ ● The ¡bias ¡is ¡an ¡external ¡parameter ¡of ¡the ¡neuron. ¡It ¡can ¡be ¡ modeled ¡by ¡adding ¡an ¡extra ¡input. ¡ ● v ¡is ¡called ¡ induced ¡field ¡of ¡the ¡neuron ¡ ¡ v= ∑ ¡ ¡w j ¡x j, ¡ ¡, ¡J à ¡0 ¡…. ¡M ¡ ¡ ¡w o ¡ ¡= ¡b ¡
Neuron ¡Models ¡ ● The ¡choice ¡of ¡ac'va'on ¡func'on ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡determines ¡the ¡ ϕ neuron ¡model. ¡ ¡ Examples: ¡ a if v c < ⎧ ( v ) ● step ¡func'on: ¡ ϕ = ⎨ b if v c > ⎩ a if v c < ⎧ ● ramp ¡func'on: ¡ ⎪ ( v ) b if v d ϕ = > ⎨ ⎪ a (( v c )( b a ) /( d c )) otherwise + − − − ⎩ ● sigmoid ¡func'on ¡with ¡z,x,y ¡parameters ¡ ¡ 1 ( v ) z ϕ = + ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ 1 exp( xv y ) + − +
Step ¡Func'on ¡ b a c
Ramp ¡Func'on ¡ b a c d
Sigmoid ¡func'on ¡
Network ¡Architectures ¡ ¡ ● Three ¡different ¡classes ¡of ¡network ¡architectures: ¡ − single-‑layer ¡feed-‑forward ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ − mul'-‑layer ¡ ¡ ¡feed-‑forward ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ − recurrent ¡ ● The ¡architecture ¡of ¡a ¡neural ¡network ¡is ¡linked ¡with ¡the ¡ learning ¡algorithm ¡used ¡to ¡train ¡
Single ¡Layer ¡Feed-‑forward ¡ ¡ Input ¡layer ¡ Output ¡layer ¡ of ¡ of ¡ source ¡nodes ¡ neurons ¡
Perceptron: ¡Neuron ¡Model ¡ ¡ (Special ¡form ¡of ¡single ¡layer ¡feed ¡forward) ¡ − The ¡perceptron ¡was ¡first ¡proposed ¡by ¡Rosenblad ¡(1958) ¡is ¡a ¡simple ¡ neuron ¡that ¡is ¡used ¡to ¡classify ¡its ¡input ¡into ¡one ¡of ¡two ¡categories. ¡ ¡ − A ¡perceptron ¡ ¡uses ¡a ¡step ¡func'on ¡that ¡returns ¡+1 ¡if ¡weighted ¡sum ¡ of ¡its ¡input ¡ ≥ ¡0 ¡and ¡-‑1 ¡otherwise ¡ 1 if v 0 + ≥ ⎧ ( v ) ϕ = ⎨ 1 if v 0 − < ⎩
Perceptron ¡for ¡Classifica'on ¡ ¡ ● The ¡perceptron ¡is ¡used ¡for ¡binary ¡classifica'on. ¡ ● First ¡train ¡a ¡perceptron ¡for ¡a ¡classifica'on ¡task. ¡ − Find ¡suitable ¡weights ¡in ¡such ¡a ¡way ¡that ¡the ¡training ¡examples ¡are ¡ correctly ¡classified. ¡ − Geometrically ¡try ¡to ¡find ¡a ¡hyper-‑plane ¡that ¡separates ¡the ¡examples ¡ of ¡the ¡two ¡classes. ¡ ● The ¡perceptron ¡can ¡only ¡model ¡linearly ¡separable ¡classes. ¡ ¡ ¡ ● Given ¡training ¡examples ¡of ¡classes ¡C 1 , ¡C 2 ¡ ¡ train ¡the ¡perceptron ¡in ¡such ¡a ¡ way ¡that ¡: ¡ − If ¡the ¡output ¡of ¡the ¡perceptron ¡is ¡+1 ¡then ¡the ¡input ¡is ¡assigned ¡to ¡ class ¡C 1 ¡ − If ¡the ¡output ¡ ¡is ¡-‑1 ¡then ¡the ¡input ¡is ¡assigned ¡to ¡C 22 ¡
Boolean ¡func'on ¡OR ¡– ¡Linearly ¡separable ¡ X 1 1 true true false true 0 1 X 2
Learning ¡Process ¡for ¡Perceptron ¡ ● Ini'ally ¡assign ¡random ¡weights ¡to ¡inputs ¡between ¡-‑0.5 ¡and ¡+0.5 ¡ ● Training ¡data ¡is ¡presented ¡to ¡perceptron ¡and ¡its ¡output ¡is ¡observed. ¡ ● If ¡ output ¡ is ¡ incorrect, ¡ the ¡ weights ¡ are ¡ adjusted ¡ accordingly ¡ using ¡ following ¡formula. ¡ ¡ ¡ ¡ w i ¡ ¡ ← ¡ w i ¡ + ¡ (a* ¡ x i ¡ *e), ¡ where ¡ ‘e’ ¡ is ¡ error ¡ produced ¡ ¡and ¡‘a’ ¡(-‑1 ¡ < ¡a ¡ < ¡1) ¡is ¡learning ¡rate ¡ − ‘a’ ¡is ¡defined ¡as ¡0 ¡if ¡output ¡is ¡correct, ¡it ¡is ¡+ve, ¡if ¡output ¡is ¡too ¡low ¡ and ¡–ve, ¡if ¡output ¡is ¡too ¡high. ¡ − Once ¡the ¡modifica'on ¡to ¡weights ¡has ¡taken ¡place, ¡the ¡next ¡piece ¡ of ¡training ¡data ¡is ¡used ¡in ¡the ¡same ¡way. ¡ − Once ¡all ¡the ¡training ¡data ¡have ¡been ¡applied, ¡the ¡process ¡starts ¡ again ¡un'l ¡all ¡the ¡weights ¡are ¡correct ¡and ¡all ¡errors ¡are ¡zero. ¡ − Each ¡itera'on ¡of ¡this ¡process ¡is ¡known ¡as ¡an ¡epoch. ¡
Recommend
More recommend