METODOLOGÍA DE GANANCIA VARIABLE PARA REGULADORES NO ACOTADOS

´ Memorias del XV Congreso Mexicano de Robotica 2014 ´ Universidad Autonoma de Sinaloa ´ XVI COMRob 2014, ISBN: En tramite ´ Sinaloa, Mexico ´ 6–8 de

2 downloads 80 Views 680KB Size

Recommend Stories


REGULADORES PARA GASES PUROS
REGULADORES PARA GASES PUROS PUREZA TOTAL www.galagar.com NUEVA GAMA DE MANORREDUCTORES PARA GASES PUROS Gala Gar amplia su gama de productos para

REGULADORES DE PRESION PARA LIQUIDOS Y GASES
REGULADORES DE PRESION PARA LIQUIDOS Y GASES CONTROL DE PRECISION PARA LIQUIDOS Y GASES GOMETRICS S.L C/Basters nº17 Palau Solità i Plegamans BARCE

Story Transcript

´ Memorias del XV Congreso Mexicano de Robotica 2014 ´ Universidad Autonoma de Sinaloa ´ XVI COMRob 2014, ISBN: En tramite ´ Sinaloa, Mexico ´ 6–8 de Noviembre, 2014, Mazatlan,

XVI COMRob2014/ID-001

METODOLOG´IA DE GANANCIA VARIABLE PARA REGULADORES NO ACOTADOS ´ D´ıaz∗ ´ ´ Miguel Angel Limon Emilio J. Gonzalez-Galv an ´ y Estudios de Posgrado ´ Fernando Reyes Cortes Centro de Investigacion ´ Grupo de Robotica Facultad de Ingenier´ıa ´ ´ Facultad de Ciencias de la Electronica Universidad Autonoma de San Luis Potos´ı ´ ´ Benemerita Universidad Autonoma de Puebla San Luis Potos´ı, S. L. P., 78290 Puebla, Pue., 72570 Email: [email protected] Email: [email protected], [email protected]

ABSTRACT En este art´ıculo se aborda el control de posici´on usando controladores con ganancia variable sobre robots manipuladores. Se presenta la regla de sinton´ıa sobre el controlador PD y sobre una estructura basada en seno hiperb´olico (SINH) y se demuestra que el punto de equilibrio del sistema en lazo cerrado es estable en el sentido de la teor´ıa de Lyapunov. Este concepto puede ser aplicado a otros controladores del tipo no acotado usando la misma metodolog´ıa presentada en este trabajo. ´ INTRODUCCION Para que un robot manipulador realice correctamente una tarea encomendada, se requiere de un algoritmo de control de alto desempe˜no. Por lo tanto, el dise˜no de algoritmos de control se ha convertido en una actividad cient´ıfica permanente y sistem´atica con la finalidad de proponer nuevos esquemas con potencialidades, desempe˜no y prestaciones adecuadas para una correcta ejecuci´on de la tarea encomendada al robot. La propuesta de moldeo de energ´ıa (energy shaping) por [1] ha sido utilizada por diversos investigadores. M´as tarde [2] propuso una funci´on estricta de Lyapunov para estudiar la estabilidad del control PD con compensaci´on de gravedad. Particularmente destaca [3] quienes generalizaron la funci´on

∗ Alumno

de Doctorado en Ingenier´ıa El´ectrica de la UASLP

estricta propuesta en [4] para el caso de regulaci´on sin emplear el teorema de LaSalle y tambi´en realizaron la extensi´on a control de trayectoria. El concepto de controladores auto-sintonizables (self-tuning controllers) se tiene desde hace muchos a˜nos con diferentes concepciones [5]. Por ejemplo investigaciones basadas en l´ogica difusa y redes neuronales, donde las reglas de sinton´ıa de las ganancias K p y Kv se toman en funci´on al error, se tienen en [6– 8]. Adem´as se tiene el concepto de ganancias variables en los que destacan [9, 10]. Sin embargo, aun persiste el problema abierto de autosintonizaci´on de las ganancias. El concepto de ganancias variables (variable gains) se conoce desde hace mucho tiempo [11] y ha sido ocupado en diversas ramas del conocimiento. Destaca el uso de este concepto para aplicaciones m´edicas, filtros, amplificadores operacionales, rob´otica y control, entre otras. En el a´ rea de la rob´otica y control se han desarrollado diferentes aportaciones usando este concepto. Por ejemplo en [12] se desarrollan ganancias variantes en el tiempo para un algoritmo adaptivo, adem´as se presentan derivaciones de algoritmos propuestos en otros art´ıculos agregando la variaci´on en tiempo de constantes de ajuste y establece estabilidad asint´otica global. M´as tarde Ying analiza las propiedades de diferentes controladores no lineales PI con ganancias variantes, estudia diferentes estructuras y m´etodos en el contexto de control c 2014 by AMRob Copyright

difuso, realizando pruebas de estabilidad y determinando el m´as adecuado de una manera anal´ıtica [13], adem´as relaciona un controlador difuso de m´ultiples entradas m´ultiples salidas, con controladores no lineales PI con ganancias variables [14]. En 1998 analiza la estructura de controladores tipo Takagi– Sugeno empleando un esquema simplificado de reglas TS, en el que todas las reglas consecuentes usan una funci´on com´un, y que son proporcionales a alguna otra condici´on, reduciendo as´ı el n´umero de par´ametros necesarios en cada regla. Tambi´en relaciona, por medio de una regla de proporcionalidad, este tipo de controladores con los PI no lineales de ganancias variables [15, 16]. Y en 2001 analiza los controladores difusos de tipo Mamdani con retroalimentaci´on de estado de ganancias variables realizando el an´alisis de estabilidad consiguiendo demostrar estabilidad local [17]. Posteriormente, en 2004, Haj extiende los trabajos realizados en [15, 16], estableciendo las condiciones para avalar la semejanza de la estructura entre controladores PID, PI y PD con ganancias variables y la clase desarrollada de controladores difusos[18]. En ese mismo a˜no un controlador PD de ganancias variables, desarrollado en 2004 por Kiong [19], es aplicado a tareas de seguimiento usando una estructura de red din´amica denominada Growing Multi-Expert Networks (GMN) realizando una mejora en el tama˜no de la red. En [20] se presentan dos controladores de ganancia variable demostrando estabilidad en el sentido de Lyapunov. En el primer controlador expresa el modelo difuso Takagi—Sugeno como una planta lineal, para el segundo controlador cada subsistema lineal es localmente estabilizado. Un m´etodo de control por redes neuronales basado en ganancias variables, desarrollado en 2008 [21] adapta las ganancias de control para un sistema tele–operado en aplicaciones de rehabilitaci´on, asegurando la estabilidad y suavidad del movimiento del robot esclavo y eliminando las perturbaciones debidas a espasmos del paciente. Las ganancias son variables que dependen de los cambios de rigidez e inercia del entorno. M´as adelante, en 2010, se realiza un algoritmo de control denominado VGSTA (Variable Gain Super–Twisting Algorithm) [22] cuyo dise˜no permite estimar el tiempo de convergencia adem´as de compensar perturbaciones con derivadas acotadas por funciones conocidas siendo posible, en 2012, generalizar este trabajo [23]. En a˜nos recientes [24] se muestra un controlador PD con ganancias variables para el control de trayectoria de un robot manipulador. La sintonizaci´on de ganancias es mediante un algoritmo SOF (Self–Organizing Fuzzy) como funci´on del error de posici´on y se le compara a un controlador PD cl´asico y logran establecer condiciones para estabilidad en una regi´on. En [25] se presenta la estimaci´on de las variables de estado de una gr´ua el´astica usando un sensor de visi´on para medir, sin contacto, las deformaciones que sufre, adem´as desarrolla dos observadores de ganancias variables; el primero para estimar las variables de

estado en relaci´on al retardo y al ruido de c´amara y el segundo para medir los potenci´ometros sin retardos. La principal motivaci´on del trabajo presentado es obtener un buen desempe˜no en t´erminos del error de posici´on y la simplificaci´on de la sinton´ıa de ganancias evitando el fen´omeno de saturaci´on de los motores. La principal caracter´ıstica de esta metodolog´ıa es el uso de funciones continuas sobre la variaci´on de la ganancia proporcional. Tambi´en se muestra el an´alisis de estabilidad y se presentan los resultados sobre 3 grados de libertad mediante un robot de transmisi´on directa de tipo articular. ´ DINAMICA DEL ROBOT Considere la ecuaci´on general que describe la din´amica de un robot manipulador de n grados de libertad, en el que se asume que todos los eslabones est´an unidos por articulaciones de giratorias. M(q)q¨ +C(q, q˙ )q˙ + g(q) + Bq˙ = τ

(1)

donde q, q˙ y q¨ son los vectores de orden n × 1 que representan la posici´on, velocidad y aceleraci´on articular respectivamente, τ ∈ Rn×1 es el vector de fuerzas y pares generalizados del robot, M(q) ∈ Rn×n es la matriz de inercia del robot manipulador la cual es sim´etrica y definida positiva, C(q, q˙ ) es la matriz de fuerzas centripetas y de coriolis es de orden n × n, g(q) = ∂ U (q) n×1 es el vector de fuerzas o pares gravitacionales y B ∂q ∈ R es una matriz diagonal de elementos positivos que describen los coeficientes de viscosidad de cada eslab´on. Se elige la siguiente estructura de control que puede verse como una generalizaci´on del controlador lineal PD cl´asico, permitiendo que la matriz de ganancia proporcional K p (q) ˜ sea una matriz de funciones no lineales dependientes de la configuraci´on del robot. τ = K p (q) ˜ q˜ − Kv q˙ + g(q)

(2)

donde K p (q), ˜ Kv > 0 ∈ Rn×n son matrices diagonales de ganancias proporcional de posici´on y velocidad respectivamente, q˜ ∈ Rn×1 el vector de errores de posici´on articular, q˙ ∈ Rn×1 el vector de velocidades articulares, cuyos elementos de la matriz K p (q), ˜ denotados por k pi (q˜i ), son funciones no lineales, pares y positivas. La ecuaci´on en lazo cerrado es obtenida sustituyendo la ley de control (2) dentro de la din´amica del robot manipulador (1) y queda descrita por     d q˜ −q˙ = . M(q)−1 [K p (q) ˜ q˜ − Kv q˙ −C(q, q˙ )q˙ − Bq] ˙ dt q˙

(3)

c 2014 by AMRob Copyright

Para analizar la estabilidad del punto de equilibrio se elige la siguiente funci´on candidata de Lyapunov n 1 V (q, ˜ q) ˙ = q˙T M(q)q˙ + ∑ 2 i=1

El valor de ai se elige en funci´on de la posici´on deseada y el par m´aximo de los motores.

0

τimax | f (qdi )| | f (qdi )| 

Z q˜i

σ k pi dσ



bi − log

(4)

ai =

(9)

por dise˜no se eligen constantes k pl y k pu , entonces V (q, ˜ q) ˙ es una funci´on definida positiva. La derivada temporal de la funci´on candidata de Lyapunov (4) est´a descrita por

donde f (qdi )es el valor de la posici´on deseada evaluado en la funci´on del controlador y τimax es el par m´aximo. Para evitar la saturaci´on de los motores y hacer que trabajen en la parte lineal, es preferible que se tome el 80% de su m´axima capacidad.

1 ˙ q˙ − q˜T K p (q) ˜ q˙ V˙ (q, ˜ q) ˙ = q˙T M(q)q¨ + q˙T M(q) 2

Regulador SINH Tomando como base la matriz de funciones anterior se extiende su aplicaci´on a otro tipo de controladores no acotados, tal es el caso de generalizar al controlador tipo SINH. La ley propuesta de control se describe por medio de,

(5)

donde se utiliza la regla de Leibinz para las derivadas de integrales. Remplazando q¨ de (3) y usando la propiedad de antisimetr´ıa, la derivada de la funci´on candidata de Lyapunov queda expresada por V˙ (q, ˜ q) ˙ = −q˙T Kv q˙ − q˙T Bq. ˙

  sinh(q˜1 ) sinh(q˜2 )   τ = K p (q) ˜   − Kv q˙ + g(q) ..   .

(6)

(10)

sinh(q˜n ) Entonces, utilizando el m´etodo directo de Lyapunov, se concluye que el origen del espacio de estados del sistema en lazo cerrado de la ecuaci´on (3) es estable. Matriz proporcional K p (q) ˜ Para la ganancia proporcional se propone una matriz de funciones que, en este caso, es inversamente proporcional al valor absoluto del error de posici´on, de esta manera se evita la saturaci´on del par m´aximo de los motores del robot eligiendo constantes peque˜nas para errores de posici´on grandes y constantes altas cuando el error de posici´on es peque˜no. Adem´as las funciones de la matriz deben ser funciones pares y que no tomen valores negativos. Para los elementos de la matriz proporcional se proponen las siguientes funciones k pi (q˜i ) = e−ai |q˜i |+bi ;

(7)

donde ai y bi son constantes positivas. El valor de bi puede ser usado como cota superior y se elige de la siguiente manera bi = log(k pu ) donde k pu es el valor m´aximo deseado de k pi (q˜i ).

(8)

donde q˜ = qd − q describe el vector del error de posici´on, de orden n × 1, K p (q) ˜ y Kv son matrices de diagonales de orden n × n, cuyos elementos de la matriz K p (q) ˜ son descritos por k pi (q˜i ) los cuales son funciones par positivas y no lineales. El sistema en lazo cerrado es obtenido sustituyendo la ley de control (10) dentro de la ecuaci´on de la din´amica (1) y se describe por  −q˙   sinh(q˜1 )      d q˜   sinh(q˜2 ) =    ˙ q˙ − Bq] ˙ ˜  M(q)−1 [K p (q)  − Kv q˙ −C(q, q) dt q˙ ..     . sinh(q˜n ) (11) la cual es una ecuaci´on diferencial aut´onoma no lineal con un u´ nico punto de equilibrio en el origen del espacio de estados. Para analizar la estabilidad del punto de equilibrio se usa una funci´on candidata similar al caso del controlador PD con ganancia variable y queda descrita por 

n 1 V (q, ˜ q) ˙ = q˙T M(q)q˙ + ∑ 2 i=1

Z q˜i 0

sinh(σi )k pi dσ

(12)

de igual manera que la secci´on anterior, se eligen las matrices de ganancias proporcional K p (q) ˜ y derivativa Kv por lo que V (q, ˜ q) ˙ es una funci´on definida positiva. c 2014 by AMRob Copyright

TABLA 1.

CARACTER´ISTICAS DE LOS SERVOMOTORES.

Articulaci´on

Modelo

PAR MAX.

Resoluci´on

Base

DM–1050

50 [Nm]

1,024,000 [cpr]

Hombro

DM–1150A

150 [Nm]

1,024,000 [cpr]

Codo

DM–1015B

15 [Nm]

1,024,000 [cpr]

100

q~1 q~2 q~3

FIGURA 1.

ROBOT MANIPULADOR EXPERIMENTAL.

La derivada temporal de la funci´on candidata queda descrita por  T sinh(q˜1 ) sinh(q˜2 ) 1  ˙ q˙ −  V˙ (q, ˜ q) ˙ = q˙T M(q)q¨ + q˙T M(q) ˜ q˙ (13)   K p (q) .. 2   . sinh(q˜n ) remplazando q¨ de (11) y usando la propiedad de antisimetr´ıa, la derivada de la funci´on candidata de Lyapunov queda expresada por V˙ (q, ˜ q) ˙ = −q˙T Kv q˙ − q˙T Bq. ˙

q~(degree)

80 60 40 20 0 -20 0

1

2

3

4

5

Time (s)

´ PARA EL CONTROLADOR FIGURA 2. ERROR DE POSICION PD CON GANANCIA VARIABLE.

(14)

k p2 (q˜2 (t f )) = 588.90 y k p3 (q˜3 (t f )) = 198.31. Los valores para las ganancias derivativas son kv1 = 20, kv2 = 65 y kv3 = 2.5.

Entonces, utilizando el m´etodo directo de Lyapunov se concluye que el origen del espacio de estados del sistema en lazo cerrado de la ecuaci´on (11) es estable.

En el caso del controlador SINH, el valor inicial de las ganancias proporcionales son k p1 (q˜1 (t0 )) = 17.37, k p2 (q˜2 (t0 )) = 138.26 y k p3 (q˜3 (t0 )) = 13.73, el valor final toma k p1 (q˜1 (t f )) = 195.44, k p2 (q˜2 (t f )) = 590.18 y k p3 (q˜3 (t f )) = 197.07. Para las ganancias derivativas kv1 = 20, kv2 = 65 y kv3 = 2.5.

Resultados experimentales Los resultados experimentales fueron obtenidos utilizando un robot manipulador de transmisi´on directa de 3 grados de ´ libertad llamado “Rotradi” mostrado en la Fig. 1. Este consiste en 3 eslabones de aluminio 6061 actuados por motores de transmisi´on directa sin escobillas. El robot fue dise˜nado y construido en el Laboratorio de Rob´otica de la Benem´erita Universidad Aut´onoma de Puebla (BUAP). Las caracter´ısticas de los servomotores son presentadas en la tabla 1. Para el controlador PD, los valores iniciales de las ganancias proporcionales son k p1 (q˜1 (t0 )) = 25.33, k p2 (q˜2 (t0 )) = 151.92 y k p3 (q˜3 (t0 )) = 15.20, los valores finales son k p1 (q˜1 (t f )) = 198.28,

Los errores de posici´on para el controlador PD con ganancia variable son mostrados en la Fig. 2 y para el controlador SINH con ganancia variable en la Fig. 3. El desempe˜no de ambos controladores es similar y muestra la funcionalidad de la estructura de ganancia variable propuesta. Las Fig. 4 y Fig. 5 muestran las gr´aficas del par aplicado el cual no excede los valores de torque m´aximo de los motores del robot manipulado. La gr´afica del cambio de la ganancias proporcionales se muestra en la Fig. 6 y Fig. 7, para los controladores PD y SINH respectivamente. c 2014 by AMRob Copyright

100

140

q~1 q~2 q~3

80

=1 =2 =3

120

= (Nm)

q~(degree)

100 60 40 20

80 60 40 20

0 -20 0

0 1

2

3

4

-20 0

5

1

2

Time (s)

3

4

´ PARA EL CONTROLADOR FIGURA 3. ERROR DE POSICION SINH CON GANANCIA VARIABLE.

FIGURA 5. PARES APLICADOS PARA EL CONTROLADOR SINH CON GANANCIA VARIABLE. 600

120

=1 =2 =3

100

Kp1 Kp2 Kp3

500 400

Kp

80

= (Nm)

5

Time (s)

60 40

300 200

20 100 0 -20 0

0 0 1

2

3

4

5

1

2

3

4

5

Time (s)

Time (s)

FIGURA 4. PARES APLICADOS PARA EL CONTROLADOR PD CON GANANCIA VARIABLE.

CONCLUSIONES En este trabajo se demostr´o la mejora del desempe˜no de los controladores usando la metodolog´ıa de ganancias variables presentadas, sobre todo en el error en estado estable, donde usualmente este tipo de controladores tienen mayor debilidad adem´as de facilitar el trabajo de sintonizaci´on de ganancias el cual es un proceso emp´ırico. Tambi´en se demostr´o que esta metodolog´ıa puede ser usada en diferentes controladores del tipo no acotado teniendo resultados similares modificando el desempe˜no de los mismo dependiendo u´ nicamente de la sinton´ıa sobre la matriz derivativa.

FIGURA 6. GANANCIAS PROPORCIONALES PARA EL CONTROLADOR PD CON GANANCIA VARIABLE.

REFERENCIAS [1] Takegaki, M., and Arimoto, S., 1981. “A new feedback method for dynamic control of manipulators”. ASME J. Dyn. Syst. Meas. Control, 103, June, pp. 119–125. [2] Tomei, P., 1991. “Adaptive pd controller for robot manipulators”. IEEE Transactions on Robotics and Automation, pp. 565–570. [3] Santib´an˜ ez, V., and Kelly, R., 1997. “Strict lyapunov functions for control of robot manipulators”. Automatica, 33, April, pp. 675–682. [4] Whitcomb, L. L., Rizzi, A. A., and Koditscheck, D. E., 1993. “Comparative experiments with a new adaptive controller for robot arms”. IEEE Transactions on Robotics and Automation, 9(1), February. c 2014 by AMRob Copyright

600

Kp1 Kp2 Kp3

500

Kp

400 300 200 100 0 0

1

2

3

4

5

Time (s)

FIGURA 7. GANANCIAS PROPORCIONALES PARA EL CONTROLADOR SINH CON GANANCIA VARIABLE.

˚ om, K. J., and Wittenmark, B., 1973. “On self tuning [5] Astr¨ regulators”. Automatica, 9(2), pp. 185–199. [6] Santib´an˜ ez, V., Kelly, R., and Llama, M. A., 2002. “Asymptotic stable tracking for robot manipulators via sectorial fuzzy control1/2”. In 15th Triennial World Congress. [7] Llama, M. A., Kelly, R., and Santib´an˜ ez, V., 2010. “An adaptive fuzzy controller for robot manipulators: Theory and experimentation”. International Journal of Factory Automation, Robotics and Soft. [8] Meza, J., Santib´an˜ ez, V., Soto, R., and Llama, M., 2012. “Fuzzy self-tuning pid semiglobal regulator for robot manipulators”. Industrial Electronics, IEEE Transactions on, 59(6), pp. 2709–2717. [9] Salas, F. G., and Llama, M. A., 2010. “Self-organizing fuzzy pid tracking control for a 2 d.o.f. robotic arm”. In Congreso Anual 2010 de la Asociaci´on de M´exico de Control Autom´atico. [10] Salas, F., Llama, M., and Santib´an˜ ez, V., 2013. “A stable self-organizing fuzzy pd control for robot manipulators”. International Journal of Innovative Computing, Information and Control, 9(5), May, pp. 2065–2086. [11] Kahn, L. R., 1953. “Analysis of a limiter as a variable-gain device”. Electrical Engineering, 72(12), pp. 1106–1109. [12] Monopoli, R., and Subbarao, V., 1980. “A new algorithm for model reference adaptive control with variable adaptation gains”. Automatic Control, IEEE Transactions on, 25(6), pp. 1245–1248. [13] Ying, H., 1993. “The simplest fuzzy controllers using different inference methods are different nonlinear proportional-integral controllers with variable gains”. Automatica, 29(6), pp. 1579–1589.

[14] Ying, H., 1993. “A two-input two-output fuzzy controller is the sum of two nonlinear PI controllers with variable gains”. In Fuzzy Systems, 1993., Second IEEE International Conference on, pp. 35–37 vol.1. [15] Ying, H., 1998. “Constructing nonlinear variable gain controllers via the Takagi-Sugeno fuzzy control”. Fuzzy Systems, IEEE Transactions on, 6(2), pp. 226–234. [16] Ying, H., 1998. “The Takagi-Sugeno fuzzy controllers using the simplified linear control rules are nonlinear variable gain controllers”. Automatica, 34(2), pp. 157–167. [17] Ying, H., 2001. “Conditions on general Mamdani fuzzy controllers as nonlinear, variable gain state feedback controllers with stability analysis”. In IFSA World Congress and 20th NAFIPS International Conference, 2001. Joint 9th, Vol. 3, IEEE, pp. 1265–1270. [18] Haj-Ali, A., and Ying, H., 2004. “Structural analysis of fuzzy controllers with nonlinear input fuzzy sets in relation to nonlinear PID control with variable gains”. Automatica, 40(9), pp. 1551–1559. [19] Kiong, L. C., Mandava, R., Kiong, W. E., and Rao, M., 2004. “A self-learning nonlinear variable gain proportional derivative (PD) controller in robot manipulators”. pp. 139– 158. [20] Kumar, P. P., Kar, I., and Behera, L., 2006. “Variablegain controllers for nonlinear systems using the T–S fuzzy model”. Systems, Man, and Cybernetics, Part B: Cybernetics, IEEE Transactions on, 36(6), pp. 1442–1449. [21] Xiaobo, G., Aiguo, S., and Yan, Z., 2008. “Neural Network Control for Tele-rehabilitation Robot based on Variable Gain”. BioMedical Engineering and Informatics, International Conference on, 2, pp. 778–782. [22] D´avila, A., Moreno, J. A., and Fridman, L., 2010. “Variable gains super-twisting algorithm: a Lyapunov based design”. In American Control Conference (ACC), 2010, IEEE, pp. 968–973. [23] Gonzalez, T., Moreno, J. A., and Fridman, L., 2012. “Variable gain super-twisting sliding mode control”. Automatic Control, IEEE Transactions on, 57(8), pp. 2100–2105. [24] Salas, F. G., Santib´an˜ ez, V., and Llama, M. A., 2012. “Variable gains PD tracking control of robot manipulators: Stability analysis and simulations”. In World Automation Congress (WAC), 2012, IEEE, pp. 1–6. [25] Hussein, M. T., and Soffker, D., 2012. “Variable gain control of elastic crane using vision sensor data”. In Control Automation Robotics & Vision (ICARCV), 2012 12th International Conference on, IEEE, pp. 1783–1788.

c 2014 by AMRob Copyright

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.